Bei der Einführung von KI-Systemen ist es wichtig, Informationen zur Funktionsweise des Systems bereitzustellen, insbesondere in Bezug auf das Autonomielevel, die Kritikalität und den Umgang mit personenbezogenen Daten.[1]

Das Autonomielevel eines KI-Systems beschreibt, inwieweit Entscheidungen von selbstlernender Software übernommen und/oder unterstützt werden können. Dabei informiert, interagiert, lernt und steuert die Software nach eigenen (programmierten) technischen Mustern.[2] Dies bedeutet, dass die bisherige Interaktion zwischen Menschen und Arbeitsmitteln (z. B. Maschinen), um eine zusätzliche Variable, nämlich die selbstlernende Software, ergänzt wird. Nach Cernavin und Diehl (2018) sind dabei 5 verschiedenen Stufen der Interaktion/Autonomie denkbar:[3]

  1. Die selbstlernende Software schlägt eine vollständige Menge von Handlungsalternativen vor und der Mensch entscheidet, welche angewendet wird.
  2. Die selbstlernende Software führt einen eigenständig ausgewählten Vorschlag aus, wenn der Mensch diesen bestätigt.
  3. Die selbstlernende Software erlaubt dem Menschen ein Veto einzulegen, um eine automatische Ausführung zu verhindern.
  4. Die selbstlernende Software informiert den Menschen über die Ausführung nur, wenn er anfragt.
  5. Die selbstlernende Software handelt voll autonom und gibt ggf. dem Menschen Anweisungen.

Auch Bitkom (2017) beschreibt diese neue Art der Interaktion anhand von 5 Stufen der Automation des Entscheidens (Stufe 0 – der Mensch entscheidet; Stufe 1 – assistiertes Entscheiden; Stufe 2 – teilweises Entscheiden; Stufe 3 – geprüftes Entscheiden; Stufe 4 – delegiertes Entscheiden; Stufe 5 – autonomes Entscheiden). Eine neue Aufgabe der Akteure im Bereich der Arbeitsgestaltung besteht darin festzulegen, wann es wirkungsvoller ist, dass der Mensch oder die selbstlernende Software die Entscheidungen übernimmt und ausführt.[4]

Die Kritikalität eines KI-Systems beschreibt das Maß für potenzielle Gefahren, die vom Einsatz des KI-Systems in einem spezifischen Anwendungskontext ausgehen können. "Aus der vor dem Einsatz ermittelten Kritikalität lässt sich die Regulierungsbedürftigkeit (Normsetzung und Ordnung i. w. S.) ableiten: Ist die Kritikalität niedrig, ist wenig Regulierung nötig, während eine hohe Kritikalität mit einem höheren Regulierungsbedarf bis hin zum Verbot eines KI-Systems in bestimmten Anwendungskontexten einhergehen sollte. Bei einer Kritikalitätseinstufung werden neben technischer Komplexität vor allem der Einwirkungsgrad auf Individuen, Gemeinschaften und die Gesellschaft im Ganzen betrachtet."[5] Weitere Informationen zu verschiedenen Stufen der Kritikalität sind bei Heesen et al. (2020) zu finden.

"Die Verarbeitung personenbezogener Daten kann zu einer Hürde für den KI-Einsatz im Arbeitsumfeld werden. Für die Gewinnung von Akzeptanz ist daher ein hohes Maß an Transparenz über die analytischen Möglichkeiten, die Nutzungsabsichten und die Grenzen der Analyse eines KI-Systems erforderlich. Zunächst sollte im Rahmen der Abschätzung der Kritikalität geklärt werden, ob durch ein KI-System Daten der Beschäftigten verarbeitet werden – und falls ja: welche Daten in welchem Umfang herangezogen oder vorausgesetzt werden (wie etwa bei personalisierten Assistenzsystemen, im Recruiting oder bei Mensch-Maschine-Kollaboration und aktiven Exoskeletten). Dabei ist auch zu prüfen und zu regeln, welche Personendaten notwendig sind und zu welchem Zweck KI-Systeme eingesetzt werden. Der rechtliche Rahmen für den Umgang mit personenbezogenen Daten und den Schutz von Persönlichkeitsrechten gibt die Europäische Datenschutzgrundverordnung (DSGVO) vor."[6]

[1] Stowasser/Suchy/Huchler/Müller/Peissner/Stich/Vögel/Werne (2020): Einführung von KI-Systemen in Unternehmen. Gestaltungsansätze für das Change-Management. Whitepaper aus der Plattform Lernende Systeme, München, verfügbar unter: https://www.isf-muenchen.de/wp-content/uploads/2020/11/AG2_Whitepaper_Change_Management.pdf (zugegriffen: 19.4.2024).
[2] Offensive Mittelstand (2019a): Verbundprojekt Prävention 4.0. Umsetzungshilfe 1.3.2. Interaktion zwischen Mensch und intelligenter Software (inkl. KI), Heidelberg, verfügbar unter: https://www.offensive-mittelstand.de/fileadmin/OM/OM-Produkte/Factsheets/Arbeit_4.0/1_3_2_Interaktion_Mensch_technische_Systeme.pdf (zugegriffen: 27.3.2024).
[3] Cernavin/Diehl (2018): Arbeit 4.0 und Unternehmenskultur, in Cernavin/Schröter/Stowasser (Hrsg.): Prävention 4.0 (S. 189–229), Berlin, Heidelberg: Springer Verlag.
[4] Bitkom e. V. (Hrsg) (2017): Künstliche Intelligenz verstehen als Automation des Entscheidens, Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., Berlin, verfügbar unter: https://www.bitkom.org/Bitkom/Publikationen/Kuenstliche-Intelligenz-verstehen-als-Automation-des-Entscheidens.html (zugegriffen: 20.3.2024).
[5] Heesen/Müller-Quade/Wrobel et al. (2020, S. 9): Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten – Ein notwendiger, aber nicht hinreichender Baustein für Vertrauen...

Dieser Inhalt ist unter anderem im Arbeitsschutz Office Professional enthalten. Sie wollen mehr?


Meistgelesene beiträge