Menschen misstrauen Entscheidungen, die Maschinen treffen

Lieber auf das eigene Bauchgefühl setzen als auf abstrakte Entscheidungsfindungen: Dieses Phänomen ist als Algorithmus-Aversion bekannt und wird häufig auf ein angeborenes Misstrauen gegenüber Maschinen zurückgeführt. Das systematische Übergehen eines Algorithmus muss jedoch nicht unbedingt auf Algorithmus-Aversion zurückzuführen sein. Eine neue Forschungsarbeit der ESMT Berlin zeigt, dass der Kontext, in dem ein menschlicher Entscheidungsträger arbeitet, den Entscheidungsträger auch daran hindern kann zu lernen, ob eine Maschine bessere Entscheidungen trifft.
Woher wissen wir, wann die Entscheidung einer Maschine besser ist als unsere eigene?
Die Ergebnisse stammen aus der Forschung von Francis de Véricourt und Hüseyin Gurkan, beide Professor of Management Science an der ESMT Berlin. Die Forscher wollten herausfinden, unter welchen Bedingungen ein menschlicher Entscheidungsträger, der eine Maschine überwacht, die kritische Entscheidungen trifft, richtig beurteilen kann, ob die Maschine bessere Empfehlungen ausspricht. Zu diesem Zweck erstellten die Forscher ein Analysemodell, bei dem ein menschlicher Entscheidungsträger eine Maschine beaufsichtigte, die mit wichtigen Entscheidungen betraut war - zum Beispiel, ob eine Biopsie bei einem Patienten durchgeführt werden sollte. Der menschliche Entscheidungsträger traf dann auf der Grundlage der Informationen, die er von der Maschine für jede Aufgabe erhielt, die beste Wahl.
Misstrauen gegenüber Maschinen führt zu verzerrtem Lernen
Die Forscher fanden heraus, dass ein menschlicher Entscheidungsträger der Maschine mehr Vertrauen schenkte, wenn er die Empfehlung der Maschine beachtete und diese sich als richtig erwies. Manchmal beobachtete der Mensch jedoch nicht, ob die Empfehlung der Maschine richtig war – dies geschah zum Beispiel, wenn der menschliche Entscheidungsträger beschloss, keine Folgemaßnahmen zu ergreifen. In diesem Fall änderte sich das Vertrauen nicht und der menschliche Entscheider lernte nichts daraus. Diese Wechselwirkung zwischen der Entscheidung des Menschen und seiner Einschätzung der Maschine führt zu einem verzerrten Lernen. Daher kann es sein, dass Menschen im Laufe der Zeit nicht lernen, wie man Maschinen effektiv einsetzt.
Diese Ergebnisse zeigen deutlich, dass es nicht immer ein inhärentes Misstrauen gegenüber Maschinen ist, das Menschen dazu veranlasst, sich über algorithmische Entscheidungen hinwegzusetzen. Dieses einseitige Lernen durch konsequentes Übergehen kann im Laufe der Zeit auch verstärkt werden, was dazu führen kann, dass Maschinen bei der Entscheidungsfindung falsch und ineffektiv eingesetzt werden.
Vertrauen in die Entscheidungsfähigkeit einer Maschine ist der Schlüssel für eine effektive Nutzung
"Wir beobachten häufig die Tendenz, dass sich Menschen über Algorithmen hinwegsetzen, was in der Regel auf ein intrinsisches Misstrauen gegenüber maschinellen Vorhersagen zurückzuführen ist", sagt Prof. de Véricourt. "Diese Voreingenommenheit ist jedoch möglicherweise nicht der einzige Grund für das unangemessene und systematische Übergehen eines Algorithmus. Es kann auch sein, dass wir einfach nicht lernen, wie man Maschinen richtig einsetzt, wenn unser Lernen ausschließlich auf der Richtigkeit der Vorhersagen der Maschine beruht." Diese Ergebnisse zeigen, dass das Vertrauen in die Entscheidungsfähigkeit einer Maschine der Schlüssel dafür ist, dass wir effektiv lernen, sie zu nutzen, und dass sich auch die Genauigkeit ihrer Nutzung verbessert.
"Unsere Forschung zeigt, dass menschliche Entscheidungsträger eindeutig zu wenig von der Intelligenz einer Maschine lernen können, wenn sie deren Ratschläge nicht kontinuierlich berücksichtigen", sagt Prof. Gurkan. "Wir müssen Wege finden, um mit den Maschinen ständig und nicht nur punktuell zu lernen."
Wann wir Maschinen vertrauen sollten - und wann nicht
Den Forschern zufolge geben diese Ergebnisse Aufschluss über die Bedeutung der Zusammenarbeit zwischen Menschen und Maschinen und zeigen uns, wann wir Maschinen vertrauen sollten (und wann nicht). Durch die Untersuchung solcher Situationen können wir lernen, wann es am besten ist, auf die Maschine zu hören und wann es besser ist, unsere eigenen Entscheidungen zu treffen. Der von den Forschern entwickelte Rahmen kann Menschen helfen, Maschinen bei der Entscheidungsfindung besser zu nutzen.
Das könnte Sie auch interessieren:
Datenflut in Unternehmen erschwert Entscheidungsprozesse
Roboter, Cobots und generative KI: Die neusten Entwicklungen
Personalmagazin 7/2023 mit dem Schwerpunkt "Künstliche Intelligenz"
-
Workation und Homeoffice im Ausland: Was Arbeitgeber beachten müssen
1.711
-
In diesen Jobs verdienen Azubis am meisten
1.035
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
937
-
Essenszuschuss als steuerfreier Benefit
931
-
BEM ist Pflicht des Arbeitgebers
816
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
677
-
Vorlage: Leitfaden für das Mitarbeitergespräch
562
-
Checkliste: Das sollten Sie bei der Vorbereitung eines Mitarbeitergesprächs beachten
405
-
Krankschreibung per Telefon nun dauerhaft möglich
389
-
Das sind die 25 größten Anbieter für HR-Software
366
-
Tipp der Woche: Ältere Beschäftigte einbinden
24.04.2025
-
Job Crafting für mehr Mitarbeiterzufriedenheit
24.04.2025
-
Warum Unternehmen Corporate Influencer unterschätzen
22.04.2025
-
Ist HR reif für KI?
17.04.2025
-
Bedeutung der bAV wächst
17.04.2025
-
Job Hopping - Zu oft gewechselt, um gut zu sein?
16.04.2025
-
Trend zu Präsenzpflicht geht zurück
16.04.2025
-
Arbeit für Ältere attraktiv gestalten
15.04.2025
-
Wie sich Elternzeit bei Vätern aufs Gehalt auswirkt
10.04.2025
-
Kritische Infrastrukturen müssen sicherer werden
08.04.2025