UB-Logo Online MagazinUntergrund-Blättle

Wie Algorithmen Rassismus lernen | Untergrund-Blättle

4055

Algorithmen lügen nicht Wie Algorithmen Rassismus lernen

Digital

Programme, die Sprache interpretieren, sind sexistisch und rassistisch, sagen Wissenschaftler. Weil sie uns aufs Maul schauen.

Algorithmen beeinflussen einen immer grösseren Teil des Lebens. Künstliche Intelligenz hat damit das Potential, existierende Vorurteile zu verstärken.
Mehr Artikel
Mehr Artikel

Algorithmen beeinflussen einen immer grösseren Teil des Lebens. Künstliche Intelligenz hat damit das Potential, existierende Vorurteile zu verstärken. Foto: Royonx (CC0 1.0)

4. Mai 2017
0
0
4 min.
Drucken
Korrektur
Während Maschinen immer besser darin werden, die menschliche Sprache zu interpretieren, lernen sie auch die Vorurteile, die tief in unserer Sprache verwurzelt sind, schreibt der«Guardian» und verweist auf eine Studie, die im April 2017 imWissenschaftsmagazin «Science» veröffentlicht wurde.

Eine der erfolgreichsten Methoden, mit denen Computer Alltagssprache interpretieren, zeigt eine auffallende rassistische und geschlechtsspezifische Befangenheit, wiesen die Autoren nach. Weil ein immer grösserer Anteil unserer täglichen Entscheidungen von Algorithmen abhängt, zementieren sie so soziale Ungleichheiten und Vorurteile.

Algorithmen sind naiv

Die Software reagiert, wie wir es von kleinen Kindern kennen, die immer das hören, was sie partout nicht hören sollen. Im schlimmsten Fall geben sie unsere unpassenden Aussagen dann in illustrer Gesellschaft zum Besten. Mit anderen Worten: Algorithmen sind sexistisch und rassistisch, weil wir es sind.

Ein gutes Beispiel dafür ist «Tay», ein Chatbot von Microsoft, der in sozialen Netzwerken selbständig kommunizieren sollte. Dafür musste die Software-Persönlichkeit die Sprache von jungen Menschen lernen. Vor einem Jahr ging «Tay» online. Nicht einmal einen Tag später sah sich Microsoft gezwungen, die künstliche Intelligenz vom Netz zu nehmen. Der Grund: sie pöbelte nur noch..

Wie aus Sprache eine Zahlenfolge wird

Arvind Narayanan, Informatiker an der Universität Princeton, und seine Co-Autoren haben die Methode des «Word Embeddings» untersucht, die in den vergangenen Jahren für grosse Fortschritte in der Sprachinterpretation gesorgt hat. «Word Embedding» arbeitet mit einem Modell, das Sprache in Zahlen übersetzt.

Die Software analysiert, welche Worte oft mit einem gesuchten Wort zusammen auftauchen, bildet diesen Zusammenhang als Zahlenfolge ab und macht ihn so für Computer verständlich. Worte, die Blumen bezeichnen, werden beispielsweise mathematisch mit solchen zusammengefasst, die Angenehmes bedeuten. Begriffe für Insekten tauchen eher zusammen mit unangenehmeren Begleitworten auf.

Wie Rassismus im Code landet…

An dieser Stelle wird es haarig. Algorithmen lernen Vorurteile, die auch in psychologischen Tests mit Menschen bewiesen wurden: Die Worte «weiblich» und «Frau» werden eher mit Kunst, Geisteswissenschaften und Haushalt assoziiert, während «männlich» und «Mann» näher an Mathematik und Ingenieurswissenschaften liegen.

Studien mit Menschen bewiesen, dass ein Bewerber mit «europäischem» Namen in den USA mit 50 Prozent höherer Wahrscheinlichkeit zu einem Vorstellungsgespräch eingeladen wird als jemand, dessen Name afro- oder latinoamerikanisch klingt. Künstliche Intelligenz übernimmt diese Vorurteile. «Wer nicht glaubt, dass Namen rassistisch beurteilt werden, hat hier den Beweis dafür», sagt Joanna Bryson, Informatikerin an der Universität Bath und eine der Co-Autorinnen der Studie.

…und warum das gefährlich ist

Das kann durchaus praktische Auswirkungen haben. Etwa, wenn jemand am Flughafen immer kontrolliert wird, weil er oder sie einen Namen trägt, den ein Algorithmus als risikobehaftet einstuft. Oder wenn Bewerbungen elektronisch vorsortiert werden.

Zurück zum vorlauten Nachwuchs: Auf einer Familienfeier kann die kindliche Bespiegelung für amüsante Momente sorgen oder ganz schön peinlich werden. In der Welt der künstlichen Intelligenz ist sie ein Problem. Algorithmen beeinflussen einen immer grösseren Teil des Lebens. Künstliche Intelligenz hat damit das Potential, existierende Vorurteile zu verstärken. Korrigieren kann sie sich nicht, weil sie nicht die Möglichkeit zur Reflexion hat, warnen die Wissenschaftler. Menschen sind in der Lage, ihre Befangenheit zu erkennen und ihr Handeln bewusst anzupassen. Ein Programm kann das nicht.

Algorithmen lügen nicht

Oder vielleicht doch. «Menschen können lügen, zum Beispiel über die Gründe, warum sie jemanden nicht eingestellt haben. Von Algorithmen erwarten wir keine Täuschung», sagte Sandra Wachter, die an der Universität Oxford zu datenethischen Fragen und Algorithmen forscht, dem «Guardian». Es sei denn, sie sind dazu programmiert worden, muss man ergänzen.

Zusammen mit zwei anderen Experten hat Wachter dazu aufgerufen, eine Art «Wächter-Algorithmus» zu erstellen. Eine schwierige Angelegenheit, gibt sie zu. Denn das hiesse, Teile des Sprachverständnisses zu entfernen, ohne dadurch die Software zu beeinträchtigen. Kann der Algorithmus soziokulturelle Zusammenhänge dann noch verstehen? Und wie lässt sich Moral logisch erfassen?

Software bildet Gesellschaft ab

«Prinzipiell können wir ein System aufbauen, das Vorurteile bei der Entscheidungsfindung feststellt und dann entsprechend handelt», erklärt Wachter. «Das ist eine komplizierte Aufgabe, aber eine, der wir uns als Gesellschaft stellen müssen».

Der nächste Schritt in der Entwicklung künstlicher Intelligenz, sagen Fachleute, könnte das «Erlernen» komplexer menschlicher Fähigkeiten wie Logik und gesunder Menschenverstand sein. Ob sich diejenigen, die die entsprechende Software planen, einig sind, was das ist?

Red. /Infosperber

Diesen Beitrag hat Daniela Gschweng aufgrund eines Berichts des «Guardian» und anderer Quellen erstellt.

Mehr zum Thema...
Headset-Test mit einem Call Center Dummy.
Call-Center Support: Algorithmus erstellt PersönlichkeitsprofilHotline-Spionage

10.07.2019

- Wer schon einmal eine Hotline kontaktiert hat, kennt die automatische Abfrage, die höflich dazu auffordert, der Aufzeichnung des Gesprächs zuzustimmen – angeblich „zur Verbesserung der Servicequalität“.

mehr...
Die französische Datenschutzbehörde CNIL wirkt aktiv an gesellschaftlichen Debatten um die digitale Zukunft mit. Jüngst gab sie einen Bericht zu ethischen Fragen an Künstliche Intelligenz heraus.
Mit welchen Herausforderungen müssen wir umgehen?Ethische Fragen bei Künstlicher Intelligenz

10.01.2018

- Die französische nationale Datenschutzbehörde CNIL legt nach einer mehrmonatigen Diskussion einen Bericht über Software und maschinelle Entscheidungen vor, der sich mit ethischen Fragen auseinandersetzt.

mehr...
In den USA entscheidet eine Software vielerorts darüber, ob eine Haftstrafe auf Bewährung ausgesetzt wird oder nicht. Sie ermittelt unter anderem die Risikowahrscheinlichkeit, ob eine Person in naher Zukunft ein weiteres Verbrechen begehen wird und richtet danach ihre Entscheidung aus.
Software entscheidet über Bewährung oder HaftAlgorithmen entscheiden über Leben. Zeit, sie zu regulieren.

07.12.2017

- Algorithmische Systeme strukturieren zunehmend diverse gesellschaftliche Bereiche und informieren oder ersetzen dabei vormals menschliche Entscheidungen.

mehr...
Künstliche Intelligenz und Diskriminierung

22.09.2020 - Künstliche Intelligenz (KI) gilt als objektiv und sachlich. Da die zugrundeliegenden Codes menschengemacht sind ist es naheliegend, dass die Programme bestehende Machtstrukturen in den digitalen Raum tragen.

Künstliche Intelligenz und Gender

04.12.2019 - Sie steckt hinter dem automatischen Übersetzen von Texten und Chatbots im Kundendienst, lernt als sprechende digitale Assistentin dazu und sorgt immer wieder für Debatten: künstliche Intelligenz. Der Begriff meint vor allem maschinelles Lernen und selbstlernende Algorithmen, also Systeme, die auf der Basis grosser Datensätze Muster identifizieren und selbstständig Pro­bleme lösen.

Dossier: Digitalisierung
GillyBerlin
Propaganda
Attention la radio ment

Aktueller Termin in Hamburg

Queer Love Zine Making (3 Tage)

Wie zeichnen, schreiben, malen wir unsere Definition von Liebe? In diesem 3-tägigen Workshop wird über Gedanken zu Beziehungen, Liebe und Verbindungen gesprochen, in denen wir uns geborgen fühlen und heilen können. Es sollen Zines ...

Freitag, 24. März 2023 - 12:00 Uhr

Kampnagel, Jarrestraße 20, 22303 Hamburg

Event in Amsterdam

Art Exhibition Sava-Mehdi at AstaroTheatro

Freitag, 24. März 2023
- 17:00 -

AstaroTheatro

Sint Jansstraat 37

1012 HG Amsterdam

Mehr auf UB online...

Anarchist:innen am 1. Mai 2021 in Wrocław, Polen
Vorheriger Artikel

Ein Plädoyer für einen Bewegungsanarchismus und (Anti-)Politik

Bewegungslinke, Anarchismus und (Anti-)Politik (Teil 1)

Diether Posser am SPD-Parteitag im Juni 1976 in Dortmund.
Nächster Artikel

Diether Posser: Anwalt im Kalten Krieg

Ein Stück deutscher Geschichte in politischen Prozessen 1951-1968

Untergrund-Blättle