Über OMB - OMB News - Geschlechterklischees bei Google Translate

Geschlechterklischees bei Google Translate

Jeden Tag nutzen etwa 500 Millionen Menschen den kostenlosen Übersetzer Google Translate, und damit ist er die am häufigsten genutzte Übersetzungslösung im Internet. Doch jetzt haben Forscher herausgefunden, dass der Übersetzer sexistische Stereotypen fördert.

Die Studie der brasilianischen staatlichen Universität in Porto Alegre (Universidade Federal do Rio Grande do Sul) hat einfache Sätze mit Berufsbezeichnungen in geschlechtsneutralen Sprachen wie Ungarisch, Türkisch, Japanisch und Chinesisch ins Englische übersetzt. Also Sprachen, die ohne ein geschlechtsspezifisches Personalpronomen wie „sie“ oder „er“ auskommen. Anhand der Satzkonstruktionen sollte überprüft werden, ob der Übersetzer weibliche oder männliche Pronomen für das jeweilige Berufsfeld verwendet. Ergebnis: Der Google-Übersetzter neigt dazu, die männliche Form zu gebrauchen.

 

Übersetzer spiegelt nicht die tatsächliche Geschlechterverteilung wider

Beispielsweise übersetzte Google Translate den ungarischen Satz „Õ egy pék“ mit „Sie ist eine Bäckerin“, während „Õ egy mérnök“ mit „Er ist Ingenieur“ übersetzt wird. Ähnliche Ergebnisse gab es auch bei anderen Berufen, wie „die Krankenschwester“ oder „der Lehrer“. So werden bestimmte Berufe von Google ungewöhnlich oft mit einem bestimmten Geschlecht assoziiert. Google Translate ist also nicht in der Lage, Berufsbezeichnungen zu gendern.

Dasselbe Ergebnis zeigte sich auch bei der Untersuchung verschiedener Adjektive. Auch hier wurde eine gewisse geschlechterspezifische Stereotypisierung deutlich. Während Adjektive wie mutig, grausam oder erfolgreich eher mit Männern in Verbindung gebracht wurden, wurden Adjektive wie attraktiv, schüchtern oder freundlich mit Frauen assoziiert.

Das Lern-System des Google-Übersetzers wird hauptsächlich aus Beispieltexten wie der Bibel, Gebrauchsanweisungen, Wikipedia oder Texten der UN oder EU gespeist. Darin tauchen häufiger Männer als Frauen auf. Das Problem ist, dass der Algorithmus nur anhand von ihm zur Verfügung gestellten Texten lernen kann. Somit steckt hinter der männlichen und weiblichen Konnotation der verschiedenen Attribute keine sexistische Absicht. Trotzdem sollte Google hier nachbessern. So wäre es sicherlich möglich, gerade bei oben genannten Beispielen sowohl die männliche als auch die weibliche Form als Ergebnis der Übersetzung anzubieten.

 

Quelle: https://bit.ly/2p1YDnC