„Alle tragen Verantwortung dafür, die unbewussten Vorurteile in künstlicher Intelligenz zu reduzieren“: Ein Interview mit Kenza Ait Si Abbou
Im Rahmen unseres Projekts macht.sprache. sprechen wir mit verschiedenen Expert:innen, die sich mit Sprache, Übersetzung oder künstlicher Intelligenz auseinandersetzen. Kenza Ait Si Abbou ist Managerin für Robotik und künstliche Intelligenz. In ihrem Buch Keine Panik, ist nur Technik möchte sie Menschen humorvoll und mit Beispielen aus dem Alltag ein grundlegendes Verständnis für künstliche Intelligenz vermitteln. In unserem Gespräch erzählt sie, dass es natürlich Herausforderungen in dem Bereich gibt – z.B. in Form von unbewussten Vorurteilen -, dass aber für alles Lösungen gefunden werden können, sofern der Wille da ist.
Kenza Ait Si Abbou hat mit ihrem Buch Keine Panik, ist nur Technik ein klares Ziel vor Augen: „Ich möchte Menschen über künstliche Intelligenz (KI) aufklären. Ich habe ein populäres Sachbuch geschrieben, damit Menschen, die nicht Technolog:innen sind, die eigentlich mit dem Thema nichts am Hut haben, sich trotzdem mit KI auseinandersetzen können.“ Das ist ihr so wichtig, weil KI die ganze Welt verändern wird, auch alle Berufe – ohne irgendeine Ausnahme. Sie erklärt mir: „Je schneller sich jede Person mit dem Thema auseinandersetzt, desto besser kann sich diese Person auf ihre eigene Zukunft vorbereiten. Viel zu viele Menschen denken immer noch, KI wäre sehr weit weg von ihrem eigenen Leben.“
Wir bei poco.lit. planen gerade die Entwicklung eines Übersetzungstools, das politisch sensible Begriffe z.B. in Bezug auf Race und Gender erkennt. Immer mehr Menschen arbeiten mit mehreren Sprachen und nutzen täglich maschinelle Übersetzungen. Bei uns bei poco.lit. wuchs in diesem Zuge die Frustration, dass herkömmliche Übersetzungsprogramme, die frei zugänglich sind, z.B. Personen im Deutschen fast immer männlich machen, also scientist wird in der Regel zu Wissenschaftler und nicht zu Wissenschaftlerin oder gar Wissenschaftler:in. Kenza Ait Si Abbou erklärt, dass Programme diese Art zu übersetzen gelernt haben und sich nicht bewusst für eine Übersetzung entscheiden. Sie weist darauf hin, dass die maschinelle Übersetzung Parallelen zu menschlichem Verhalten beinhaltet: Menschen entscheiden sich nicht notwendigerweise absichtlich unsensibel mit Sprache umzugehen, sie haben es so gelernt. Die Erziehung und das soziale Umfeld spielen dabei eine zentrale Rolle. Wenn der Großteil der Gesellschaft keine genderinklusive oder genderneutrale Sprache verwendet und Maschinen von Daten lernen, die ihnen zur Verfügung stehen, sind sie ein Abbild gesellschaftlicher Normen.
In Ihrem Buch Keine Panik, ist nur Technik schreibt Kenza Ait Si Abbou über cognitive bias, kognitive Verzerrung, als regelrecht gefährliches Phänomen. Kognitive Verzerrung entsteht dadurch, dass Menschen nur aus ihrer eigenen Perspektive denken und davon ausgehen, dass die ganze Welt genauso tickt. In unserem Gespräch erklärt Kenza mir, dass es vor allem dann eine Rolle spielt, wenn Menschen in mächtigen Positionen sind: „Wenn ich ein Richter bin und Vorurteile habe, dann ist es sehr gefährlich für die angeklagte Person, wenn sie nicht seinem Standard von richtig und gut entspricht. Wenn ich mich in der Kita meines Sohns mit den Eltern anderer Kinder unterhalte und sie Vorurteile haben, ist das nicht schön, aber auch nicht so gefährlich.“ Macht und Kontext spielen eine zentrale Rolle. Auch bei Rassismus ist es so, dass es letztendlich um die Macht geht, mit der die Diskriminierung verbunden ist. Kenza Ait Si Abbou macht klar, dass „das schwierige bei der KI ist, dass sie dadurch Macht erlangt, dass sie so viel verwendet wird. Es ist eine quantitative Macht.“
Kenza Ait Si Abbou wurde sich selbst erst vor einigen Jahren über die strukturellen Dimensionen von Bias in KI bei einem „Women in AI“ (Frauen und Künstliche Intelligenz) Treffen bewusst. Als sie danach zu recherchieren begann, wurde sie in mehreren Branchen fündig, hielt einen TED-Talk zum Thema und erkannte, wie eine regelrechte Welle losbrach: Bias in KI, so erkannten plötzlich viele, war nichts Individuelles, sondern etwas Strukturelles, was die ganze Welt betraf. Viele Technologien sind nicht neutral, sie erlernen Vorurteile. Kenza Ait Si Abbou ist dementsprechend mittlerweile eine gefragte Interviewpartnerin, doch sie betont, dass die Medien das Problem manchmal zu einseitig behandeln: „Die Homogenität der Entwicklungsteams stellen natürlich einen Teil des Problems dar – es ist eine Branche, die zu einem großen Teil aus weißen Männern besteht. Technologien werden von Menschen gemacht, deshalb müssen Menschen Verantwortung dafür tragen. Aber die Verantwortung liegt nicht nur beim Entwicklungsteam. Nachdem selbstlernende Systeme die Fabrikhalle verlassen haben, lernen sie weiter und zwar von den Nutzer:innen. D.h. das Weiterlernen macht die Gesellschaft und damit ist sie genauso verantwortlich wie das Entwicklungsteam“. Letztendlich wirbt Kenza Ait Si Abbou für mehr Reflexion in Entwicklungsteams, um auch mit KI zu mehr Gleichberechtigung in der Welt beizutragen. Gleichzeitig muss die Gesellschaft ihre unbewussten Vorurteile dekonstruieren und umlernen, damit KI ebenso weniger diskriminierend sein kann. „Wenn ich gar nicht weiß, dass mit meinem Verhalten Maschinen so oder so gelenkt werden, dann kann ich sie nicht beeinflussen und wenn ich es weiß, müsste ich bei jedem Like, den ich setze, über die Konsequenzen nachdenken. Das finden sicher einige Menschen anstrengend“. In ihren Erklärungen zeigt Kenza Ait Si Abbou das Positive, aber auch das Negative auf. Nur wer die Kritik versteht und keine Anstrengung scheut, kann dazu beitragen, die Probleme zu beheben.