Der Einsatz von künstlicher Intelligenz (KI) im Wirtschaftsleben nimmt immer mehr zu. Einige Unternehmen setzen Chatbots ein, um mit ihren Kunden zu kommunizieren.
Air Canada setzte Chatbot zur Information der Kunden ein
Die kanadische Fluglinie Air Canada nutzte einen solchen mit einer Vielzahl von Kundeninformationen gefütterten Chatbot als technisches Dialogsystem zur Beantwortung von Kundenanfragen im Internet. Auf der Webseite von Air Canada erteilte der Chatbot u. a. Auskunft auf Kundenfragen zur Buchung von Flügen.
Kunde fragte Informationen über spezielle Trauertarife nach
Der Kläger des vom kanadischen „Civil Resolution Tribunal“ im Februar dieses Jahres entschiedenen Verfahrens hatte sich von dem Chatbot über die Konditionen eines von ihm geplanten Flugs informieren lassen. Der Flugkunde hatte die Absicht, anlässlich des Todes seiner Großmutter im November 2022 einen Hin- und Rückflug Vancouver/Toronto zu buchen. Das Flugunternehmen Air Canada hatte er deshalb gewählt, weil Air Canada für solche Flüge anlässlich von Trauerfällen spezielle Sondertarife anbietet.
Kommunikation von Flugkunde und Chatbot
Der Kunde unterhielt sich deshalb im Netz mit dem von Air Canada eingesetzten Chatbot über die diversen Verbindungen und Tarife. Der virtuelle Ratgeber gab dem Kunden die Auskunft, es bestehe die Möglichkeit der Buchung regulärer Flugtickets für Hin- und Rückflug. Anschließend habe er 90 Tage Zeit den Trauertarif geltend zu machen. Der Kunde buchte darauf Flugtickets zum Preis von insgesamt 1.650 kanadischen Dollar. Unter Berücksichtigung des Trauertarifs sollten beide Flügel zusammen nur ca. 380 kanadische Dollar gekostet. Nach Auskunft des Chatbots hätte der Kunde nachträglich somit die Erstattung von 1.270 Dollar verlangen können.
Air Canada lehnte nachträglichen Trauerrabatt ab
Unter Beifügung einer Sterbeurkunde machte der Kunde innerhalb der von dem Chatbot genannten 90-Tage-Frist seinen Anspruch auf Rückerstattung des Differenzbetrages zwischen den entrichteten Flugkosten und den unter Berücksichtigung des Trauerrabatts zu zahlenden Betrag geltend. Air Canada lehnte die Erstattung jedoch ab, mit der Begründung, dass die von dem Chatbot genannten 90-Tage-Frist nicht existiere. Der Trauerrabatt müsse sofort bei Buchung geltend gemacht werden. Die erteilte Auskunft sei unrichtig gewesen. Dies hätte der Kunde auch unschwer erkennen können, wenn er auf der Internetseite der Fluggesellschaft weitergeblättert hätte. Dort seien die richtigen Konditionen im Einzelnen aufgeführt.
Air Canada plädierte auf Eigenverantwortung des Chatbots
Diesen Standpunkt von Air Canada empfand der Kunde als Frechheit und verklagte das Unternehmen auf Zahlung des Differenzbetrages. Vor Gericht argumentierte das Flugunternehmen, bei einem Chatbot handle es sich um ein eigenständiges, selbstlernendes System. Ein Chatbot sei vergleichbar einem selbstständigen Unternehmer, der den Kunden eigenverantwortlich Fragen beantworte und Auskünfte erteile. Für unrichtige Auskünfte eines solchen Roboters könne das Unternehmen mangels eigenen Verschuldens nicht haftbar gemacht werden, zumal die zutreffenden Informationen über die Internetseite des Unternehmens für den Kunden unschwer abrufbar gewesen seien.
Chatbot ist lediglich technisches Kommunikationsinstrument
Die Argumentation von Air Canada überzeugte das angerufene kanadische Gericht nicht. Das Gericht gab dem Kunden in vollem Umfang recht. In seiner Entscheidung befasste sich das Gericht allerdings mit der Frage, ob es sich bei dem Chatbot um eine Art regulärer Mitarbeiter von Air Canada handelte oder lediglich um ein technisches Hilfsinstrument zur Erteilung von Auskünften. Das Gericht entschied sich für die zweite Variante und vertrat die Auffassung, Air Canada hafte nach den gleichen Grundsätzen, die für eine unrichtig erteilte Auskunft in einem Prospekt oder auf der Internetseite des Unternehmens gelten.
Sorgfaltspflichtverletzung des Luftfahrtunternehmens
Den Verweis des Unternehmens auf die auf der Website befindlichen weiteren Informationen, die teilweise erst über einen speziellen Link zu erreichen waren, hielt das Gericht für unerheblich. Ein Kunde müsse nicht damit rechnen, dass er über weiterführende Links relevantere Informationen erhalte, als sie der von dem Unternehmen für die Kundeninformation eingesetzte Chatbot gegeben habe. Air Canada habe schuldhaft seine Sorgfaltspflicht verletzt, indem das Unternehmen den Chatbot entweder mit falschen Informationen gefüttert habe oder das im Chatbot implantierte selbstlernende System fehlerhaft gewesen sei.
Air Canada muss Differenzbetrag erstatten
Damit muss sich das Unternehmen nach Auffassung des Gerichts zumindest den Vorwurf der Fahrlässigkeit gefallen lassen. Letztlich habe das Unternehmen die fehlerhafte Information des Verbrauchers verschuldet und diesen dadurch in die Irre geführt. Hierfür sei die Fluggesellschaft verantwortlich und müsse für den entstandenen Schaden in vollem Umfang einstehen. Im Ergebnis hatte die Klage des Kunden gegen Air Canada damit Erfolg.
(Kanadisches Civil Resolution Tribunal, Urteil v. 14.2.2024, SC-2023-005609)
Hintergrund:
Die Haftungsprobleme, die durch Fehler von KI entstehen, werden auch in Deutschland in den nächsten Jahren und Jahrzehnten zunehmend die Justiz beschäftigen. Insbesondere bei vermehrtem Einsatz von Hochrisiko-KI-Systemen, wie der Verwendung von KI-basierten Autopiloten im Straßenverkehr, dürften Haftungsfragen - beispielsweise bei fahrlässig falscher Programmierung - zunehmend an Bedeutung gewinnen. Geschädigte könnten in diesen Fällen angesichts der komplexen Technik erhebliche Probleme haben, Herstellern und/oder Anbietern ein Verschulden für einen entstandenen Schaden nachzuweisen. Neben dem kürzlich vom EU-Parlament verabschiedeten KI-Gesetz hat die EU-Kommission zur Haftungsproblematik bereits im Herbst letzten Jahres den Entwurf einer KI-Haftungsrichtlinie vorgestellt. Damit sollen die Chancen von potentiellen Opfern von KI-Fehlern zur Durchsetzung von Haftungsansprüchen verbessert werden, unter anderem durch Herabsetzung der Beweislast.