Menschen misstrauen Entscheidungen, die Maschinen treffen
Lieber auf das eigene Bauchgefühl setzen als auf abstrakte Entscheidungsfindungen: Dieses Phänomen ist als Algorithmus-Aversion bekannt und wird häufig auf ein angeborenes Misstrauen gegenüber Maschinen zurückgeführt. Das systematische Übergehen eines Algorithmus muss jedoch nicht unbedingt auf Algorithmus-Aversion zurückzuführen sein. Eine neue Forschungsarbeit der ESMT Berlin zeigt, dass der Kontext, in dem ein menschlicher Entscheidungsträger arbeitet, den Entscheidungsträger auch daran hindern kann zu lernen, ob eine Maschine bessere Entscheidungen trifft.
Woher wissen wir, wann die Entscheidung einer Maschine besser ist als unsere eigene?
Die Ergebnisse stammen aus der Forschung von Francis de Véricourt und Hüseyin Gurkan, beide Professor of Management Science an der ESMT Berlin. Die Forscher wollten herausfinden, unter welchen Bedingungen ein menschlicher Entscheidungsträger, der eine Maschine überwacht, die kritische Entscheidungen trifft, richtig beurteilen kann, ob die Maschine bessere Empfehlungen ausspricht. Zu diesem Zweck erstellten die Forscher ein Analysemodell, bei dem ein menschlicher Entscheidungsträger eine Maschine beaufsichtigte, die mit wichtigen Entscheidungen betraut war - zum Beispiel, ob eine Biopsie bei einem Patienten durchgeführt werden sollte. Der menschliche Entscheidungsträger traf dann auf der Grundlage der Informationen, die er von der Maschine für jede Aufgabe erhielt, die beste Wahl.
Misstrauen gegenüber Maschinen führt zu verzerrtem Lernen
Die Forscher fanden heraus, dass ein menschlicher Entscheidungsträger der Maschine mehr Vertrauen schenkte, wenn er die Empfehlung der Maschine beachtete und diese sich als richtig erwies. Manchmal beobachtete der Mensch jedoch nicht, ob die Empfehlung der Maschine richtig war – dies geschah zum Beispiel, wenn der menschliche Entscheidungsträger beschloss, keine Folgemaßnahmen zu ergreifen. In diesem Fall änderte sich das Vertrauen nicht und der menschliche Entscheider lernte nichts daraus. Diese Wechselwirkung zwischen der Entscheidung des Menschen und seiner Einschätzung der Maschine führt zu einem verzerrten Lernen. Daher kann es sein, dass Menschen im Laufe der Zeit nicht lernen, wie man Maschinen effektiv einsetzt.
Diese Ergebnisse zeigen deutlich, dass es nicht immer ein inhärentes Misstrauen gegenüber Maschinen ist, das Menschen dazu veranlasst, sich über algorithmische Entscheidungen hinwegzusetzen. Dieses einseitige Lernen durch konsequentes Übergehen kann im Laufe der Zeit auch verstärkt werden, was dazu führen kann, dass Maschinen bei der Entscheidungsfindung falsch und ineffektiv eingesetzt werden.
Vertrauen in die Entscheidungsfähigkeit einer Maschine ist der Schlüssel für eine effektive Nutzung
"Wir beobachten häufig die Tendenz, dass sich Menschen über Algorithmen hinwegsetzen, was in der Regel auf ein intrinsisches Misstrauen gegenüber maschinellen Vorhersagen zurückzuführen ist", sagt Prof. de Véricourt. "Diese Voreingenommenheit ist jedoch möglicherweise nicht der einzige Grund für das unangemessene und systematische Übergehen eines Algorithmus. Es kann auch sein, dass wir einfach nicht lernen, wie man Maschinen richtig einsetzt, wenn unser Lernen ausschließlich auf der Richtigkeit der Vorhersagen der Maschine beruht." Diese Ergebnisse zeigen, dass das Vertrauen in die Entscheidungsfähigkeit einer Maschine der Schlüssel dafür ist, dass wir effektiv lernen, sie zu nutzen, und dass sich auch die Genauigkeit ihrer Nutzung verbessert.
"Unsere Forschung zeigt, dass menschliche Entscheidungsträger eindeutig zu wenig von der Intelligenz einer Maschine lernen können, wenn sie deren Ratschläge nicht kontinuierlich berücksichtigen", sagt Prof. Gurkan. "Wir müssen Wege finden, um mit den Maschinen ständig und nicht nur punktuell zu lernen."
Wann wir Maschinen vertrauen sollten - und wann nicht
Den Forschern zufolge geben diese Ergebnisse Aufschluss über die Bedeutung der Zusammenarbeit zwischen Menschen und Maschinen und zeigen uns, wann wir Maschinen vertrauen sollten (und wann nicht). Durch die Untersuchung solcher Situationen können wir lernen, wann es am besten ist, auf die Maschine zu hören und wann es besser ist, unsere eigenen Entscheidungen zu treffen. Der von den Forschern entwickelte Rahmen kann Menschen helfen, Maschinen bei der Entscheidungsfindung besser zu nutzen.
Das könnte Sie auch interessieren:
Datenflut in Unternehmen erschwert Entscheidungsprozesse
Roboter, Cobots und generative KI: Die neusten Entwicklungen
Personalmagazin 7/2023 mit dem Schwerpunkt "Künstliche Intelligenz"
-
Workation und Homeoffice im Ausland: Was Arbeitgeber beachten müssen
1.993
-
Essenszuschuss als steuerfreier Benefit
1.713
-
Vorlage: Leitfaden für das Mitarbeitergespräch
1.500
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
1.276
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
1.249
-
Krankschreibung per Telefon nun dauerhaft möglich
1.129
-
BEM ist Pflicht des Arbeitgebers
1.031
-
Checkliste: Das sollten Sie bei der Vorbereitung eines Mitarbeitergesprächs beachten
709
-
Das sind die 25 größten Anbieter für HR-Software
514
-
Modelle der Viertagewoche: Was Unternehmen beachten sollten
390
-
Tipp der Woche: Mehr Inklusion durch KI
19.12.2024
-
Gleichstellung in Europa verbessert sich nur langsam
16.12.2024
-
Fünf Tipps für effektive Recruiting-Kampagnen zum Jahresstart
13.12.2024
-
Eine neue Krankenkasse als Zeichen der Fürsorge
11.12.2024
-
Wie Personalarbeit wirtschaftlichen Erfolg beeinflusst
10.12.2024
-
1.000 neue Fachkräfte für den Glasfaserausbau
09.12.2024
-
KI für eine inklusive Arbeitswelt
06.12.2024
-
Weihnachtsgeld: Wer bekommt wie viel?
05.12.2024
-
Mit Corporate Volunteering Ehrenamt ins Unternehmen bringen
05.12.2024
-
Die Angst vor KI lässt nach
05.12.2024