7. Sprichst du Computer?

Liebe Barbara

In meinem letzten Beitrag Unsere Sprache – Abbildung unserer Realität? schreibe ich darüber, wie unser Sprachsystem unsere Realität beeinflusst. Spricht man mehrere Sprachen, erweitert man sprichwörtlich seinen Horizont und nimmt seine Wahrnehmung anders wahr. Die Wissenschaftlerin Miranda Fricker hat zum Beispiel untersucht, welche Folgen nicht benannte Missstände haben. Sexuelle Belästigung existierte 1960 in den USA nicht. Im Gegenteil die ungewollte Annäherung wurde seitens der Täter als Flirt oder Kompliment aufgefasst. Die belästigte Angestellte konnte nichts unternehmen, um sich zu schützen. Das Problem wurde nicht verstanden. Unsere Realität wird von Sprache erschaffen und geformt. Das gilt nicht nur für unsere reale Umgebung, sondern auch für den digitalen Raum – wenn nicht sogar viel mehr!

Programmiersprachen kreieren buchstäblich unsere digitale Welt.

Auf Wikipedia sind insgesamt 359 unterschiedliche Programmiersprachen gelistet. Wie viele Menschen auf der Welt verstehen zumindest eine dieser Computersprachen? Wie viele können sie aktiv benutzen, um zu programmieren?

Wenn man sich einen typischen Programmierer vorstellt, dann hat man einen weißen Mann vor Augen, einen Nerd im Kapuzenpulli, scheu und ungeschickt in sozialen, menschlichen Interaktionen.

Die Tech-Branche ist männlich dominiert. Der Anteil weiblicher IT-Fachkräfte liegt bei Apple bei 23 Prozent, bei Google bei 20 und bei Facebook sowie Amazon sind es jeweils 19 Prozent – auf den Führungsebenen findet man fast gar keine Frauen.

Quelle: faz.net/sie-schaffen-das

Was für Auswirkungen hat Brotopia?

Unsere Zukunft wird von einem kleinen, elitären, homogenen Männer-Club bestimmt. Autorin und TV-Journalistin Emilia Chang hat diesem Club als Brotopia genannt und ihre Erfahrung damit in ihrem Buch zusammengefasst. Das einseitige Denken und Programmieren einer homogenen Gruppe kann weitreichende Folgen für die Gesamtbevölkerung haben. Als Beispiel verweise ich auf einen TedTalk von Joy Buolamwini. Sie berichtet von ihrer Erfahrung, als sie feststellen musste, dass eine Software ihr Gesicht nicht erkennen konnte:

Obwohl der TedTalk im November 2016 stattgefunden hat, hat sich das Problem nicht verringert. In der Literatur wird diese Form von Diskriminierung als Algorithmische Voreingenommenheit (aus dem Englischen Algorithmic Bias) bezeichnet. Es gibt noch zahlreiche, weitere Beispiele – hier noch weitere zwei:

Wenn in Google Translate spezifische Berufe einem spezifischen Geschlecht zuordnen – das gilt insbesondere für Sprachen ohne grammatikalischem Geschlecht wie Türkisch, Finnisch, Swahili, Usbekisch, Armenhisch zum Beispiel.
Wenn Spracherkennungssysteme nur einen bestimmten Akzent verstehen.

Diskriminierung im Algorithmus

Künstliche Intelligenz ist von Voreingenommenheit betroffen. Die Automatisierung beziehungsweise der Lernprozess eines Computers basiert auf Daten. Der Computer versucht in den Daten Muster und logische Verbindungen zu erkennen, um daraus Gesetzmäßigkeiten zu schließen. Daher kann ein Algorithmus nur so gut sein, wie die Daten, die ihm zur Verfügung stehen. Und hier kommen wir wieder zurück zur Frage, wer Daten generiert?

Wer spricht und schreibt Computer?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.