Wie bereits in Abschn. 2.2 dargestellt, haben KI-Systeme viele verschiedene Anwendungsbereiche und verfolgen unterschiedliche Ziele mit unterschiedlichen Nutzen und Folgen. Die hohe Variabilität und Individualität der Anwendung macht es notwendig, dass betriebliche Akteure zu Beginn des Einsatzes einer KI-Anwendung gemeinsam überlegen und festlegen,

  • welches Ziel und welchen Zweck, die jeweilige KI-Anwendung im Betrieb erfüllen soll,
  • welche Informationen über die Funktionsweise des KI-Systems für eine gesunde und sichere Einführung und Nutzung des KI-Systems relevant sind,
  • welche Potenziale und Risiken (Folgenabschätzung) die Einführung des KI-Systems mit sich bringt,
  • wie die Beteiligung und Mobilisierung der Beschäftigten für den Einsatz der neuen Technologien gelingen kann; dabei gilt es, auch die Unternehmenskultur entsprechend zu berücksichtigen.

4.1.1 Zielsetzung und Zweck des KI-Systems

"Alle Ansätze einer KI-Einführung beginnen mit einer Initiierung und Zielfestlegung. Grundlage ist die Prüfung und Beschreibung des KI-Handlungsbedarfs (Lern-, Problemlösungs- und Strategiebedarfs) und die Festlegung der mit einer KI-Einführung angestrebten Ziele durch die betrieblichen Akteure."[1] Dabei ist besonders die Zusammenarbeit der betrieblichen Akteure in einer Art Steuerungsgruppe (Geschäftsführung, Führungskräfte, IT- Abteilung, Beschäftigte, Personal- und Betriebsräte) bei der Festlegung der Ziele und des Zwecks des KI-Systems für den betrieblichen Einsatz wichtig. Ebenso gilt es, denkbare Auswirkungen für die Arbeitsgestaltung möglichst frühzeitig zu antizipieren.

[1] Eisele/Harlacher/Lennings (2023, S. 111), in: Stowasser (Hrsg.): Künstliche Intelligenz (KI) und Arbeit, ifaa-Edition, Springer Vieweg, Berlin, Heidelberg.

4.1.2 Funktionsweise des KI-Systems

Bei der Einführung von KI-Systemen ist es wichtig, Informationen zur Funktionsweise des Systems bereitzustellen, insbesondere in Bezug auf das Autonomielevel, die Kritikalität und den Umgang mit personenbezogenen Daten.[1]

Das Autonomielevel eines KI-Systems beschreibt, inwieweit Entscheidungen von selbstlernender Software übernommen und/oder unterstützt werden können. Dabei informiert, interagiert, lernt und steuert die Software nach eigenen (programmierten) technischen Mustern.[2] Dies bedeutet, dass die bisherige Interaktion zwischen Menschen und Arbeitsmitteln (z. B. Maschinen), um eine zusätzliche Variable, nämlich die selbstlernende Software, ergänzt wird. Nach Cernavin und Diehl (2018) sind dabei 5 verschiedenen Stufen der Interaktion/Autonomie denkbar:[3]

  1. Die selbstlernende Software schlägt eine vollständige Menge von Handlungsalternativen vor und der Mensch entscheidet, welche angewendet wird.
  2. Die selbstlernende Software führt einen eigenständig ausgewählten Vorschlag aus, wenn der Mensch diesen bestätigt.
  3. Die selbstlernende Software erlaubt dem Menschen ein Veto einzulegen, um eine automatische Ausführung zu verhindern.
  4. Die selbstlernende Software informiert den Menschen über die Ausführung nur, wenn er anfragt.
  5. Die selbstlernende Software handelt voll autonom und gibt ggf. dem Menschen Anweisungen.

Auch Bitkom (2017) beschreibt diese neue Art der Interaktion anhand von 5 Stufen der Automation des Entscheidens (Stufe 0 – der Mensch entscheidet; Stufe 1 – assistiertes Entscheiden; Stufe 2 – teilweises Entscheiden; Stufe 3 – geprüftes Entscheiden; Stufe 4 – delegiertes Entscheiden; Stufe 5 – autonomes Entscheiden). Eine neue Aufgabe der Akteure im Bereich der Arbeitsgestaltung besteht darin festzulegen, wann es wirkungsvoller ist, dass der Mensch oder die selbstlernende Software die Entscheidungen übernimmt und ausführt.[4]

Die Kritikalität eines KI-Systems beschreibt das Maß für potenzielle Gefahren, die vom Einsatz des KI-Systems in einem spezifischen Anwendungskontext ausgehen können. "Aus der vor dem Einsatz ermittelten Kritikalität lässt sich die Regulierungsbedürftigkeit (Normsetzung und Ordnung i. w. S.) ableiten: Ist die Kritikalität niedrig, ist wenig Regulierung nötig, während eine hohe Kritikalität mit einem höheren Regulierungsbedarf bis hin zum Verbot eines KI-Systems in bestimmten Anwendungskontexten einhergehen sollte. Bei einer Kritikalitätseinstufung werden neben technischer Komplexität vor allem der Einwirkungsgrad auf Individuen, Gemeinschaften und die Gesellschaft im Ganzen betrachtet."[5] Weitere Informationen zu verschiedenen Stufen der Kritikalität sind bei Heesen et al. (2020) zu finden.

"Die Verarbeitung personenbezogener Daten kann zu einer Hürde für den KI-Einsatz im Arbeitsumfeld werden. Für die Gewinnung von Akzeptanz ist daher ein hohes Maß an Transparenz über die analytischen Möglichkeiten, die Nutzungsabsichten und die Grenzen der Analyse eines KI-Systems erforderlich. Zunächst sollte im Rahmen der Abschätzung der Kritikalität geklärt werden, ob durch ein KI-System Daten der Beschäftigten verarbeitet werden – und falls ja: welche Daten in welchem Umfang herangezogen oder vorausgesetzt werden (wie etwa bei personalisierten Assistenzsystemen, im Recruiting oder bei Mensch-Maschine-Kollaboration und ak...

Dieser Inhalt ist unter anderem im Arbeitsschutz Office Professional enthalten. Sie wollen mehr?