Bei der Einführung von KI-Systemen ist es wichtig, Informationen zur Funktionsweise des Systems bereitzustellen, insbesondere in Bezug auf das Autonomielevel, die Kritikalität und den Umgang mit personenbezogenen Daten.[1]
Das Autonomielevel eines KI-Systems beschreibt, inwieweit Entscheidungen von selbstlernender Software übernommen und/oder unterstützt werden können. Dabei informiert, interagiert, lernt und steuert die Software nach eigenen (programmierten) technischen Mustern.[2] Dies bedeutet, dass die bisherige Interaktion zwischen Menschen und Arbeitsmitteln (z. B. Maschinen), um eine zusätzliche Variable, nämlich die selbstlernende Software, ergänzt wird. Nach Cernavin und Diehl (2018) sind dabei 5 verschiedenen Stufen der Interaktion/Autonomie denkbar:[3]
- Die selbstlernende Software schlägt eine vollständige Menge von Handlungsalternativen vor und der Mensch entscheidet, welche angewendet wird.
- Die selbstlernende Software führt einen eigenständig ausgewählten Vorschlag aus, wenn der Mensch diesen bestätigt.
- Die selbstlernende Software erlaubt dem Menschen ein Veto einzulegen, um eine automatische Ausführung zu verhindern.
- Die selbstlernende Software informiert den Menschen über die Ausführung nur, wenn er anfragt.
- Die selbstlernende Software handelt voll autonom und gibt ggf. dem Menschen Anweisungen.
Auch Bitkom (2017) beschreibt diese neue Art der Interaktion anhand von 5 Stufen der Automation des Entscheidens (Stufe 0 – der Mensch entscheidet; Stufe 1 – assistiertes Entscheiden; Stufe 2 – teilweises Entscheiden; Stufe 3 – geprüftes Entscheiden; Stufe 4 – delegiertes Entscheiden; Stufe 5 – autonomes Entscheiden). Eine neue Aufgabe der Akteure im Bereich der Arbeitsgestaltung besteht darin festzulegen, wann es wirkungsvoller ist, dass der Mensch oder die selbstlernende Software die Entscheidungen übernimmt und ausführt.[4]
Die Kritikalität eines KI-Systems beschreibt das Maß für potenzielle Gefahren, die vom Einsatz des KI-Systems in einem spezifischen Anwendungskontext ausgehen können. "Aus der vor dem Einsatz ermittelten Kritikalität lässt sich die Regulierungsbedürftigkeit (Normsetzung und Ordnung i. w. S.) ableiten: Ist die Kritikalität niedrig, ist wenig Regulierung nötig, während eine hohe Kritikalität mit einem höheren Regulierungsbedarf bis hin zum Verbot eines KI-Systems in bestimmten Anwendungskontexten einhergehen sollte. Bei einer Kritikalitätseinstufung werden neben technischer Komplexität vor allem der Einwirkungsgrad auf Individuen, Gemeinschaften und die Gesellschaft im Ganzen betrachtet."[5] Weitere Informationen zu verschiedenen Stufen der Kritikalität sind bei Heesen et al. (2020) zu finden.
"Die Verarbeitung personenbezogener Daten kann zu einer Hürde für den KI-Einsatz im Arbeitsumfeld werden. Für die Gewinnung von Akzeptanz ist daher ein hohes Maß an Transparenz über die analytischen Möglichkeiten, die Nutzungsabsichten und die Grenzen der Analyse eines KI-Systems erforderlich. Zunächst sollte im Rahmen der Abschätzung der Kritikalität geklärt werden, ob durch ein KI-System Daten der Beschäftigten verarbeitet werden – und falls ja: welche Daten in welchem Umfang herangezogen oder vorausgesetzt werden (wie etwa bei personalisierten Assistenzsystemen, im Recruiting oder bei Mensch-Maschine-Kollaboration und aktiven Exoskeletten). Dabei ist auch zu prüfen und zu regeln, welche Personendaten notwendig sind und zu welchem Zweck KI-Systeme eingesetzt werden. Der rechtliche Rahmen für den Umgang mit personenbezogenen Daten und den Schutz von Persönlichkeitsrechten gibt die Europäische Datenschutzgrundverordnung (DSGVO) vor."[6]
Dieser Inhalt ist unter anderem im Arbeitsschutz Office Professional enthalten. Sie wollen mehr?
Jetzt kostenlos 4 Wochen testen