Diskriminierung, Sprache und Übersetzungsprogramme
Im Rahmen unseres macht.sprache. Projekts betrachten wir einige der Themen rund um Übersetzung und sensible Sprache. macht.sprache. entwickelt eine Web-App, um politisch sensible Übersetzungen in den Sprachen Englisch und Deutsch zu fördern. Ziel ist es, Diskussionen über diskriminierende Sprache zu führen und mehr Bewusstsein für das Problem politisch aufgeladener Begriffe zu schaffen, besonders in Bezug auf (maschinelle) Übersetzungen. Hier beschäftigen wir uns mit Technologie und unbewussten Vorurteilen.
Sicherlich nutzen viele Menschen, deren Arbeit sich zunehmend in den Bereich des Virtuellen verlagert, auch vermehrt Übersetzungsprogramme. Es besteht kein Zweifel, dass diese Tools, von denen viele kostenlos online verfügbar sind, viel zur Arbeitserleichterung für all diejenigen von uns beitragen, die auf ihren Plattformen und Social-Media-Kanälen zweisprachige Beiträge veröffentlichen. Manchmal sind es solche Tools, die überhaupt erst die Möglichkeit aufzeigen, eine Internetseite oder Online-Kommunikation mehrsprachig zu gestalten. An und für sich handelt es sich um eine wunderbare Sache. Gleichzeitig neigen diese Tools und die Übersetzungen, die sie vorschlagen, dazu, bereits von iher Entwicklung und ihrem Training an vorurteilsbelastet zu sein.
Bei der maschinellen Übersetzung der englischen Sätze „He is a nurse. She is a doctor” (also „Er ist Krankenpfleger. Sie ist Ärztin) ins Ungarische und dann zurück ins Englische wird diese Aussage sehr wahrscheinlich in leicht veränderter Form in die Ausgangssprache zurückkehren: als „She is a nurse. He is a doctor” („Sie ist Krankenschwester. Er ist Arzt“). Dies macht die geschlechtsspezifischen Assoziationen deutlich, die sich ohnehin um diese unterschiedlichen medizinischen Berufe ranken. Für die Übersetzung des Englischen Wortes „nurse“ liefern die üblichen Übersetzungsprogramme mit hoher Wahrscheinlichket als ersten deutschen Übersetzungsvorschlag Krankenschwester, ein Wort in dem eine geschlechtsspezifische Voreingenommenheit direkt hineingeschrieben wird. Das geschlechtsunspezifische Wort Pflegekraft ist immer noch wenig etabliert. Hier werden die voreingenommenen geschlechtsspezifischen Dimensionen von Krankenschwester und Arzt, die sehr wohl auch in der englischen Sprache in den grammatikalisch geschlechtsfreien Begriffen „nurse“ und „doctor“ existieren aber latent bleiben, durch eine unvorsichtige Übersetzung verschärft.
Wie so oft reproduziert sich die anfängliche Diskriminierung selbst und erzeugt weitere Diskriminierung. Es gibt einige Projekte, die ausdrücklich versuchen, gegen diese Art der Fortschreibung von Vorurteilen zu arbeiten. Beispiele dafür sind Artificially Correct (künstlich korrekt – ein Wortspiel aus künstlicher Intelligenz und politischer Korrektheit), ein Projekt des Goethe-Instituts, über das wir bald mehr berichten werden und Lahjoita puhetta, ein finnisches Projekt, das explizit versucht, Audioaufnahmen von vielfältigen Stimmen zu sammeln, damit Spracherkennungstechnologien weiterentwickelt werden können und die Überrepräsentation weißer, bürgerlicher Stimmen behoben wird. Da die Technologie mit und von diesen letzteren Stimmen entwickelt wurde, erkennt sie auch Befehle mit größerer Wahrscheinlichkeit von Stimmen, die ähnlich klingen, sowie deren Sprechweisen. Auf diese Weise trägt die Spracherkennungstechnologie dazu bei, die Sprechweisen, die mit dieser Gruppe assoziiert werden, als Norm zu etablieren. Andere Arten werden gleichzeitig als von dieser Norm abweichend konstruiert.
Ein weiteres deutliches Beispiel für diese Art von ausgrenzenden Tendenzen sind Erkennungssysteme, die darauf ausgelegt sind, Beiträge in sozialen Medien als wahrscheinlich beleidigend zu kennzeichnen. Solche Systeme stufen Tweets mit sprachlichen Merkmalen, die mit afroamerikanischem Englisch assoziiert werden, eher als beleidigend ein, als standardisierte Sprachvarietäten. Dadurch wird afroamerikanisches Englisch implizit als Normabweichung eingeordnet und die Wahrscheinlichkeit erhöht sich, dass Tweets mit entsprechenden sprachlichen Merkmalen gelöscht werden – was durchaus zur Folge haben kann, dass die bereits bestehende Unterrepräsentation afroamerikanischer Stimmen im öffentlichen Raum noch verschärft wird.
Die in diesen Beispielen angedeuteten Tendenzen sind, wenn sie unkontrolliert bleiben, in mehrfacher Hinsicht problematisch, da sie bestehende geschlechtsspezifische Vorurteile verstärken und genau die Stimmen zum Schweigen bringen, die bereits historisch und institutionell marginalisiert wurden – wie z.B. Schwarze Menschen, People of Color und Indigene. Diese Hinweise auf die Probleme, die durch Vorurteile in der Technologie entstehen können, sollen nicht heißen, dass es nicht auch lustige und kreative Wege gibt, digitale Lösungen und neue technische Tools zu nutzen, wie dieses Lyrikprojekt zeigt.
Letztendlich lässt sich sagen, dass für zweisprachig arbeitende Kulturschaffende die Einspeisung eines Textes in ein Übersetzungsprogramm ein erster, aber keineswegs der einzige Schritt zur Erstellung einer politisch sensiblen Übersetzung sein kann.