Hochrisiko-KI-Systeme sind in der Personalpraxis:

KI-Systeme im Rahmen von Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit, zum Zwecke der

  • Einstellung oder Auswahl von Bewerbern (Sichten oder (Vor-)Filtern von Bewerbungen und das Bewerten von Bewerbern)
  • Entscheidungen über Beförderungen und über Kündigungen von Arbeitsvertragsverhältnissen, für die Aufgabenzuweisung auf Grundlage des individuellen Verhaltens sowie für die Überwachung und Bewertung der Leistung und des Verhaltens von Personen

Pflichten für Arbeitgeber:

  • Menschliche Aufsicht durch kompetente, ausgebildete und befugte Personen sicherstellen und erforderliche Unterstützung gewähren.[1]
  • Information der Arbeitnehmervertreter und betroffenen Arbeitnehmer vor Inbetriebnahme oder Verwendung eines Hochrisiko-KI-Systems am Arbeitsplatz.[2]
  • Sicherstellen, dass Eingabedaten der Zweckbestimmung des KI-Systems entsprechen und ausreichend repräsentativ sind.[3]

    Beispiel:

    In ein KI-System, das aus Lebensläufen und Zeugnissen Prognosen über die berufliche Geeignetheit machen soll, werden Gesprächsnotizen und persönliche Motivationsschreiben eingegeben.

  • Überwachung des Betriebs gemäß Betriebsanleitung, Information der Anbieter bei Risiken oder schwerwiegenden Vorfällen, Aussetzung der Verwendung bei Risikoannahme.

    Beispiel:

    Durchführen von Stichproben in regelmäßigen Abständen, ggf. Eingabe künstlicher Daten, um das System zu testen.[4]

  • Aufbewahrung der automatisch erzeugten Protokolle für mindestens 6 Monate oder gemäß geltendem Recht.[5]
  • Ggf. Verwendung von über das KI-System bereitgestellten Informationen[6], um ggf. eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO durchzuführen.
  • Offenlegung, dass Inhalte künstlich erzeugt oder manipuliert wurden, bei KI-Systemen, die Bild-, Ton- oder Videoinhalte erzeugen oder manipulieren, Offenlegung von Deepfake-Inhalten oder ggf. sogar bei künstlich erzeugten Texten.[7]
  • Einhaltung aller Anforderungen aus Abschnitt III KI-VO, wenn Betreiber auch als Anbieter der KI gelten (Fälle hiervon sind aufgezählt in Art. 25 KI-VO). Werden Betreiber als Anbieter eingestuft, müssen sie zusätzlich umfangreiche Pflichten erfüllen, wie die Einrichtung eines Qualitätsmanagementsystems oder die Durchführung von Risikobewertungen.

Ein ausformulierter Pflichtenkatalog findet sich in Art. 26 KI-VO, daneben ist insbesondere Art. 4 sowie Erwägungsgrund 132 und Art. 50 für Betreiber relevant.

Weitere Vorbereitungen könnten Folgendes beinhalten:

  • Schulungen zum technischen Grundverständnis und zum verantwortungsvollen Umgang mit KI-Systemen für die Belegschaft anbieten und durchführen;

    Hinweis:

    Nach Art. 4 KI-VO soll gelten:

    Die Anbieter und Betreiber von KI-Systemen sollen Maßnahmen ergreifen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen. Dabei sind ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen.

  • den Betriebsrat frühzeitig in geplante Maßnahmen zur KI-Nutzung einbinden und ggf. Sachkompetenzen auch in den Gremien aufbauen, um Akzeptanz zu fördern und schnellere Entscheidungen in der Zukunft zu ermöglichen;
  • auf die Bildung von interdisziplinären Teams hinwirken (z.B. Informatik, Recht, u. a. Fachbereiche);
  • ggf. einen ausgebildeten Beauftragten für KI-Systeme benennen, der die Aktivitäten bündelt, als Ansprechpartner zur Verfügung steht und bei Hochrisikosystemen die menschliche Aufsicht über diese Systeme übernimmt;
  • für den Einsatz von KI im HR-Bereich, insbesondere bei der Auswahl von Bewerbern und Bewertung von Mitarbeitern, ein Risk Assessment durchführen, um Funktionsweisen, Ziele und Risiken des KI-Systems zu bewerten, Risiken gering zu halten und zu dokumentieren;
  • den risikobasierten Ansatz bei Planung, Entwicklung oder Einsatz von KI-Systemen bereits jetzt berücksichtigen, das heißt, je nach Risikopotenzial einer KI-Anwendung strenge Richtlinien und Prozesse implementieren;
  • interne Richtlinien für den Umgang mit KI-Systemen wie Nutzungsbedingungen für ChatGPT oder allgemeine Richtlinien formulieren;
  • beim in Betracht ziehen neuer KI-Systeme, verstärkt auf europäische Anbieter achten, da deren Systeme die Anforderungen der KI-Verordnung i.d.R. eher erfüllen dürften.
[1] Art. 26 Abs. 1 KI-VO.
[2] Art. 26 Abs. 7 KI-VO.
[3] Art. 26 Abs. 4 KI-VO.
[4] Art. 26 Abs. 3, Abs. 7 KI-VO.
[5] Art. 26 Abs. 5 KI-VO.
[6] Art. 13 KI-VO.
[7] Vgl. im Einzelnen Art. 50 Abs. 4 KI-VO.

Dieser Inhalt ist unter anderem im Haufe Personal Office Platin enthalten. Sie wollen mehr?


Meistgelesene beiträge