6. Zweckbindung und Datenminimierung
Wer personenbezogene Daten für KI-Lösungen nutzt, muss im Vorfeld definieren, für welche Zwecke diese verwendet werden und sicherstellen, dass diese Daten nur zweckdienlich erhoben, gespeichert und genutzt werden.
Organisationen haben eine besondere Verantwortung im Umgang mit personenbezogenen Daten, die in digitalisierten Organisationsprozessen in wachsendem Umfang entstehen. Diese Daten dürfen nicht für personenbezogene Auswertungen zweckentfremdet werden. Den rechtlichen Rahmen dafür bildet die DSGVO. Sie fordert sowohl das Prinzip der Zweckbindung als auch der Datenminimierung. Personenbezogene Daten, die für einen vorab definierten Zweck erhoben wurden, dürfen grundsätzlich nicht ohne erneute Einwilligung zu ihrer Nutzung für andere Zwecke verwendet werden. Ferner sollen nicht mehr Daten erhoben werden, als für den jeweiligen Zweck erforderlich.
Organisationen können mit einer Pseudonymisierung und/oder Anonymisierung der Daten arbeiten, um Daten unter Wahrung des Datenschutzes verwenden zu können. Eine explorative Datenanalyse ist höchstens für Forschungszwecke, das heißt unter Ausschluss einer unmittelbaren Verwendung der Ergebnisse für Personalentscheidungen jeglicher Art, möglich.
7. Informationspflicht
Vor beziehungsweise beim Einsatz einer KI-Lösung müssen die davon betroffenen Menschen über ihren Einsatz, ihren Zweck, ihre Logik und die erhobenen und verwendeten Datenarten informiert werden.
Menschen müssen darüber informiert werden, dass sie mit einer KI-Lösung interagieren und/oder ihre personenbezogenen Daten von einer KI-Lösung verarbeitet werden. Die Information muss den Zweck und die Logik der KI-Lösung sowie eine vollständige
Auflistung der verwendeten Datenarten beinhalten.
8. Achten der Subjektqualität
Für die Nutzung in KI-Lösungen dürfen keine Daten erhoben und verwendet werden, welche der willentlichen Steuerung der Betroffenen grundsätzlich entzogen sind.ür die Nutzung in KI-Lösungen dürfen ohne rechtzeitige Beteiligung und individuelle Einwilligung der Betroffenen keine Daten erhoben werden, die deren willentlicher Steuerung entzogen sind.
Subjektqualität ist ein Pfeiler der Menschenwürde und Selbstbestimmung. Dieser Punkt ist wichtig, aber nicht leicht verständlich. Lassen Sie uns deshalb ein Beispiel verwenden: Ein Lügendetektor produziert grundsätzlich valide Ergebnisse. Trotzdem wird dieses Verfahren in Deutschland nicht eingesetzt. Warum? Der Lügendetektor misst Parameter wie beispielsweise die elektrische Leitfähigkeit der Haut. Dabei werden Daten erhoben, die Menschen willentlich weder zur Verfügung stellen noch beeinflussen können.
Wir wären in dieser Hinsicht analysiertes Objekt und kein wahrnehmendes und handelndes Subjekt. KI-Lösungen, die Daten erheben oder verwenden, welche die Subjektqualität des Menschen nicht beachten, sind für das Personalmanagement in Organisationen grundsätzlich nicht einzusetzen.
9. Datenqualität und Diskriminierung
Wer KI-Lösungen entwickelt oder nutzt, muss sicherstellen, dass die zugrundeliegenden Daten über eine hohe Qualität verfügen und systembedingte Diskriminierungen ausgeschlossen werden.
Personalverantwortliche handeln im Bewusstsein, dass datenbasierte und/oder automatisierte Entscheidungsprozesse nicht
automatisch objektiv und fair sind. Historische Daten, die genutzt werden, um KI-Lösungen zu entwickeln und zu trainieren,
sind von normativen Vorgaben zu unterscheiden. Bei personalpolitischen Entscheidungen spielen normative Vorgaben (zum Beispiel Quoten) eine wichtige Rolle. Die Auswertung, wer es in der Vergangenheit in eine Führungsposition geschafft hat, ist nicht die Antwort darauf, wer es in Zukunft schaffen sollte.
Deshalb müssen Anbieter und Nutzer von KI-Lösungen dafür Sorge tragen, dass systembedingte Diskriminierungen vermieden werden. Je nach Anwendungszweck sind dafür eine Information über Trainingsdaten und Entscheidungskriterien sowie die proaktive Prüfung von Daten und Systemen auf Diskriminierung notwendig.
10. Stetige Überprüfung
Wer KI-Lösungen nach den vorliegenden Richtlinien einführt, soll transparent sicherstellen, dass die Richtlinien auch bei der betrieblichen Umsetzung und der Weiterentwicklung beachtet werden.
Die Nutzung einer KI-Lösung erfordert stetige Kontrolle. Nutzer*innen von KI-Lösungen sind daher in der Pflicht, regelmäßig zu überprüfen, ob die Nutzung in Einklang mit den Richtlinien erfolgt und den festgelegten Zielsetzungen entspricht. Bei Abweichungen sind Anpassungen vorzunehmen. Wichtige Aspekte sind beispielsweise die Beurteilung der zweckmäßigen Nutzung einer KI-Lösung und die Auswirkungen auf die Arbeitsorganisation. Dies erfordert die Einrichtung geeigneter organisationsinterner Prozesse und Institutionen, wie zum Beispiel eine*n Digital-Verantwortliche*n, einen interdisziplinären KI-Beirat oder Digitalrat, sowie die Gewährleistung der Möglichkeit zur Kontaktaufnahme und Interventionsmöglichkeit mit geeigneten Ansprechpartner*innen in allen Fällen, in denen KI-Lösungen genutzt werden.