Menschen misstrauen Entscheidungen, die Maschinen treffen
Lieber auf das eigene Bauchgefühl setzen als auf abstrakte Entscheidungsfindungen: Dieses Phänomen ist als Algorithmus-Aversion bekannt und wird häufig auf ein angeborenes Misstrauen gegenüber Maschinen zurückgeführt. Das systematische Übergehen eines Algorithmus muss jedoch nicht unbedingt auf Algorithmus-Aversion zurückzuführen sein. Eine neue Forschungsarbeit der ESMT Berlin zeigt, dass der Kontext, in dem ein menschlicher Entscheidungsträger arbeitet, den Entscheidungsträger auch daran hindern kann zu lernen, ob eine Maschine bessere Entscheidungen trifft.
Woher wissen wir, wann die Entscheidung einer Maschine besser ist als unsere eigene?
Die Ergebnisse stammen aus der Forschung von Francis de Véricourt und Hüseyin Gurkan, beide Professor of Management Science an der ESMT Berlin. Die Forscher wollten herausfinden, unter welchen Bedingungen ein menschlicher Entscheidungsträger, der eine Maschine überwacht, die kritische Entscheidungen trifft, richtig beurteilen kann, ob die Maschine bessere Empfehlungen ausspricht. Zu diesem Zweck erstellten die Forscher ein Analysemodell, bei dem ein menschlicher Entscheidungsträger eine Maschine beaufsichtigte, die mit wichtigen Entscheidungen betraut war - zum Beispiel, ob eine Biopsie bei einem Patienten durchgeführt werden sollte. Der menschliche Entscheidungsträger traf dann auf der Grundlage der Informationen, die er von der Maschine für jede Aufgabe erhielt, die beste Wahl.
Misstrauen gegenüber Maschinen führt zu verzerrtem Lernen
Die Forscher fanden heraus, dass ein menschlicher Entscheidungsträger der Maschine mehr Vertrauen schenkte, wenn er die Empfehlung der Maschine beachtete und diese sich als richtig erwies. Manchmal beobachtete der Mensch jedoch nicht, ob die Empfehlung der Maschine richtig war – dies geschah zum Beispiel, wenn der menschliche Entscheidungsträger beschloss, keine Folgemaßnahmen zu ergreifen. In diesem Fall änderte sich das Vertrauen nicht und der menschliche Entscheider lernte nichts daraus. Diese Wechselwirkung zwischen der Entscheidung des Menschen und seiner Einschätzung der Maschine führt zu einem verzerrten Lernen. Daher kann es sein, dass Menschen im Laufe der Zeit nicht lernen, wie man Maschinen effektiv einsetzt.
Diese Ergebnisse zeigen deutlich, dass es nicht immer ein inhärentes Misstrauen gegenüber Maschinen ist, das Menschen dazu veranlasst, sich über algorithmische Entscheidungen hinwegzusetzen. Dieses einseitige Lernen durch konsequentes Übergehen kann im Laufe der Zeit auch verstärkt werden, was dazu führen kann, dass Maschinen bei der Entscheidungsfindung falsch und ineffektiv eingesetzt werden.
Vertrauen in die Entscheidungsfähigkeit einer Maschine ist der Schlüssel für eine effektive Nutzung
"Wir beobachten häufig die Tendenz, dass sich Menschen über Algorithmen hinwegsetzen, was in der Regel auf ein intrinsisches Misstrauen gegenüber maschinellen Vorhersagen zurückzuführen ist", sagt Prof. de Véricourt. "Diese Voreingenommenheit ist jedoch möglicherweise nicht der einzige Grund für das unangemessene und systematische Übergehen eines Algorithmus. Es kann auch sein, dass wir einfach nicht lernen, wie man Maschinen richtig einsetzt, wenn unser Lernen ausschließlich auf der Richtigkeit der Vorhersagen der Maschine beruht." Diese Ergebnisse zeigen, dass das Vertrauen in die Entscheidungsfähigkeit einer Maschine der Schlüssel dafür ist, dass wir effektiv lernen, sie zu nutzen, und dass sich auch die Genauigkeit ihrer Nutzung verbessert.
"Unsere Forschung zeigt, dass menschliche Entscheidungsträger eindeutig zu wenig von der Intelligenz einer Maschine lernen können, wenn sie deren Ratschläge nicht kontinuierlich berücksichtigen", sagt Prof. Gurkan. "Wir müssen Wege finden, um mit den Maschinen ständig und nicht nur punktuell zu lernen."
Wann wir Maschinen vertrauen sollten - und wann nicht
Den Forschern zufolge geben diese Ergebnisse Aufschluss über die Bedeutung der Zusammenarbeit zwischen Menschen und Maschinen und zeigen uns, wann wir Maschinen vertrauen sollten (und wann nicht). Durch die Untersuchung solcher Situationen können wir lernen, wann es am besten ist, auf die Maschine zu hören und wann es besser ist, unsere eigenen Entscheidungen zu treffen. Der von den Forschern entwickelte Rahmen kann Menschen helfen, Maschinen bei der Entscheidungsfindung besser zu nutzen.
Das könnte Sie auch interessieren:
Datenflut in Unternehmen erschwert Entscheidungsprozesse
Roboter, Cobots und generative KI: Die neusten Entwicklungen
Personalmagazin 7/2023 mit dem Schwerpunkt "Künstliche Intelligenz"
-
Workation und Homeoffice im Ausland: Was Arbeitgeber beachten müssen
2.120
-
Krankschreibung per Telefon nun dauerhaft möglich
1.493
-
Essenszuschuss als steuerfreier Benefit
1.455
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
1.355
-
Vorlage: Leitfaden für das Mitarbeitergespräch
1.310
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
1.252
-
BEM ist Pflicht des Arbeitgebers
967
-
Pflicht zur psychischen Gefährdungsbeurteilung
642
-
Checkliste: Das sollten Sie bei der Vorbereitung eines Mitarbeitergesprächs beachten
641
-
Modelle der Viertagewoche: Was Unternehmen beachten sollten
402
-
Haftungsrisiko bAV: Arbeitgeber zahlen für Rentenlücken. Jetzt handeln
04.11.2024
-
Worauf es bei Ausbildungsmarketing und Azubi-Recruiting ankommt
01.11.2024
-
Tipp der Woche: Mehr Mut bei Gehaltsangaben in Stellenanzeigen
31.10.2024
-
Das sind die 25 größten Anbieter für HR-Software
31.10.2024
-
Wechsel an der Unternehmensspitze senken das Mitarbeiterengagement
30.10.2024
-
Tight-Loose-Tight als Führungsprinzip
29.10.2024
-
Herausforderungen im HR Application Management
28.10.2024
-
Sechs Erfolgsfaktoren für digitale HR-Arbeit in der Praxis
28.10.2024
-
Wie HR die eigene Digitalisierung mitgestalten kann
28.10.2024
-
Große Mittelständler stehen unter Druck
28.10.2024