Es bleiben weitere Probleme, die beim Training von KI überdacht werden müssen. Joy Boulamwini, eine ghanaisch-kanadische Informatikerin, stellte bei einer Untersuchung 2018 fest, dass Gesichtserkennungssoftware (unter anderem von IBM und Microsoft) bei weißen Männern eine Fehlerquote von nur 1 % hatten, bei schwarzen Frauen aber von 35 %. Dieser Unterschied war nicht auf die Algorithmen selbst zurückzuführen, sondern vielmehr auf die Daten, mit denen die Software trainiert wurde. Man bezeichnet dies als Bias (KI-Voreingenommenheit).[1]

Eine hohe Diversität bei Trainingsdaten ist Voraussetzung für eine vorurteilsfreie KI. Werden beispielsweise nur weiße, ältere Männer als CEO von der KI kennengelernt, so dürfte sie daraus den Schluss ziehen, dass umgekehrt alle CEO ältere weiße Männer sein müssen. Auf eine sorgfältige diversifizierte Auswahl der Daten muss also geachtet werden.

Für Aufgabenstellungen dieser Art wurde das neue Forschungsfeld AI-Alignment (KI-Ausrichtung) gestartet, welches sich mit der Ausrichtung von KI nach menschlichen Werten und Normen beschäftigt. Dazu gehört, dass sich Fehler oder Lücken im Training auf das Verhalten der KI auswirken, welches dann nicht mit menschlichen Werten vereinbar ist. In diesem Feld wird nun geforscht, ob und wie ethisches Verhalten in KI sichergestellt werden kann.

Dieser Inhalt ist unter anderem im Arbeitsschutz Office Professional enthalten. Sie wollen mehr?


Meistgelesene beiträge