Lars, but not Least: Wenn Autos zu Rassisten werden

Eine wissenschaftliche Untersuchung zeigt, dass autonome Autos dunkelhäutige Menschen möglicherweise eher überfahren würden als hellhäutige. Die Ursache dafür liegt nicht etwa in Schwierigkeiten der Sensoren, sondern in einem Grundproblem der KI.

Wem gehört die KI?

Genau wie bei den anderen Beispielen liegt die Ursache für dieses bisher schlichtweg übersehene rassistische Verhalten der KI in der unzulänglichen Datenbasis. Bei genaueren Analysen zeigte sich, dass in den Trainingsdatensätzen weiße Gesichter deutlich häufiger vertreten sind als dunkle Hauttypen. Dadurch hat die Software einerseits eine größere Datenbasis, die angesichts der vorwiegend statistisch-heuristischen Herangehensweise aktueller KI-Lösungen direkt zu einer zuverlässigeren Erkennung von Passanten mit heller Haut als Menschen und deren Überbewertung für die Aufgaben führt. Zusätzlich verstärkt wird dieser Effekt noch dadurch, dass die Software somit auch zur Festlegung einzelner Erkennungsmuster sowie zur besseren Unterscheidung von Objekten vorwiegend Eigenschaften hellhäutiger Gesichter heranzieht. Das zeigt einmal mehr, wie sehr KI-Systeme doch immer Kinder ihrer Macher und derer Lebens- und Datenwelt bleiben und warum eine möglichst breite gesellschaftliche Beteiligung und heterogene Teams ein wichtiger Faktor sind, um sie besser werden zu lassen.

Kritiker und Vertreter einiger Entwickler autonomer Autos und der zugehörigen Systeme entgegneten nach der Veröffentlichung sofort, dass die Ergebnisse nicht aussagekräftig seien, da sie nicht mit den real in der Praxis eingesetzten KI-Lösungen ermittelt wurden. Gleichzeitig allerdings will keiner der Anbieter die eigenen Daten und Software für entsprechende Versuche und Überprüfungen zur Verfügung stellen. Hier liegt ein weiteres grundsätzliches Problem der Künstlichen Intelligenz. Im KI-Bereich generieren Anbieter Lösungen die weitreichende Entscheidungen treffen, bis hin zu Leben und Tod. Wenn aber schon bei sorgfältigem Umgang mit einem möglichen Bias solche Fehler entstehen können, was droht dann erst bei schludrigen Umsetzungen? Eine Frage, die auch die Co-Direktorin des KI Now Research Institute, Kate Crawford, angesichts der Veröffentlichung aufwarf: »In einer idealen Welt würden Akademiker die aktuellen Modelle und Trainingssets der Hersteller autonomer Automobile testen. Aber da diese nie zur Verfügung gestellt werden (ein Problem an sich), bieten Papiere wie dieses einen guten Einblick in sehr reale Risiken.«

Bevor wir die KI Verbrecher aussortieren oder Autos fahren lassen und ihr ganze Städte in die Hand geben, muss also noch viel passieren. Sowohl bei der internen als auch der externen Kontrolle der Grundlagen und Arbeitsweisen einer KI müssen wir noch deutlich nacharbeiten. Auch die Art wie KIs zu ihren Lernergebnissen und den daraus resultierenden Entscheidungen kommen, ist noch weit von ernsthafter Intelligenz entfernt. Das müssen auch die Entwickler begreifen und viel stärker als bisher berücksichtigen, indem sie sich beispielsweise der Öffentlichkeit und der Wissenschaft öffnen. Sonst werden wir in den nächsten Jahren noch viele derartige Fälle erleben müssen und damit auch viel Vertrauen in die positiven Chancen der KI verspielen.