Diskriminierende Software Maschinen wiederholen menschliche Fehler

Berlin · Künstliche Intelligenz soll helfen, gute Entscheidungen zu treffen. Wenn das schiefgeht, liegt es nicht unbedingt an der Software.

 Im April dieses Jahres brannte der Dachstuhl der Kathedrale Notre-Dame in Paris. Youtubes Empfehlungsalgorithmus verknüpfte Videos des Ereignisses mit solchen des Terroranschlags auf das World Trade Center in New York vom 11. September 2001.

Im April dieses Jahres brannte der Dachstuhl der Kathedrale Notre-Dame in Paris. Youtubes Empfehlungsalgorithmus verknüpfte Videos des Ereignisses mit solchen des Terroranschlags auf das World Trade Center in New York vom 11. September 2001.

Foto: dpa/Thibault Camus

Computerprogramme können Autos lenken, Verbrecher überführen, Bankgeschäfte prüfen – und manchmal ziemlich plump agieren. Die Geschichten dazu sind so zahlreich wie schmerzlich: Eine Software, die Amazon bei der Bewerberauswahl unterstützen sollte, schlug vor allem Männer vor, die Google-Bilderkennung verwechselte schwarze Menschen mit Gorillas und forderte asiatisch aussehende Menschen dazu auf, die Augen zu öffnen. Und bei Youtube wurden zum Großbrand von Notre-Dame Videos des 9/11-Terroranschlags aus New York zugeordnet. Sind die Algorithmen, die dabei zum Einsatz kamen, einfach schlecht programmiert?

Wie Algorithmen funktionieren

Ein Algorithmus ist eine Verkettung von Anweisungen zur Lösung eines bestimmten Problems, so ähnlich wie ein Rezept. Was Künstliche Intelligenz (KI) genannt wird, basiert oft auf solchen Algorithmen. Sie sollen dem Computer ermöglichen, informierte Entscheidungen zu treffen. Deren Grundlage sind wiederum möglichst große Datensätze, mit denen die Software gefüttert wird. Die Technologie erkennt Zusammenhänge in den Daten und kann fortan, basierend auf diesem Hintergrundwissen, zum Beispiel Empfehlungen bei verschiedensten Entscheidungen geben.

Die Kritik an solchen Algorithmen haben jüngst die Frauen- und Gleichstellungsministerinnen der Länder aufgegriffen. Sie stören sich besonders an der Auto-Vervollständigung bei Suchmaschinen. Wer in das Suchfeld der Microsoft-Suchmaschine Bing „Frauen können“ tippt, erhält den Vorschlag, den Satz mit „kein Auto fahren“ zu ergänzen. Die Bundesregierung soll nun wegen solcher und anderer Vorkomnisse prüfen, ob den Algorithmen „Diskriminierungsmechanismen“ zugrunde liegen.

Algorithmen spiegeln gesellschaftliche Diskriminierung wider

Diesen Ansatz findet Lorena Jaume-Palasí falsch. Sie ist Gründerin der gemeinnützigen Organisation Ethical Tech Society in Berlin, die sich mit der gesellschaftlichen Dimension von Technologie beschäftigt. „Die Ursache von Diskriminierung ist immer der Mensch“, sagt Jaume-Palasí. Anstatt die Ursachen der Diskriminierung anzugehen, konzentriere sich die Politik auf die Technologie, die lediglich menschliches Verhalten widerspiegele und nachahme.

Auch Susanne Dehmel vom Digitalverband Bitkom sieht die Erklärung für die voreingenommenen Ergebnisse, etwa bei der Suche nach geeignetem Personal, nicht in den Algorithmen selbst: „In der Vergangenheit gab es in Unternehmen die Praxis, dass vermehrt weiße Männer eingestellt wurden.“ Trainiere man den Algorithmus mit diesen historischen Daten, suche er eben die künftigen Kandidaten entsprechend aus. Auch bei der Gesichtserkennung, die schwarze und asiatisch aussehende Menschen diskriminierte, liege die Vermutung nahe, dass das Problem nicht der Algorithmus gewesen sei. Fragwürdig sei vielmehr die Auswahl der Bilder, mit der die Maschine trainiert worden sei.

Dem Anspruch, Probleme so gut wie oder besser als Menschen zu lösen, werde künstliche Intelligenz in vielen Fällen noch nicht gerecht. Dehmel kann den Ergebnissen jedoch etwas Positives abgewinnen: Die Technologie halte der Gesellschaft einen Spiegel vor und zeige, wie akut Diskriminierung noch sei. Suchmaschinenanbietern nun einen erzieherischen Auftrag zu erteilen, möglichst diskriminierungsfreie Inhalte auszuspucken, findet Dehmel dennoch falsch. Die Betreiber richteten sich nach Relevanz, Ergebnisse ergäben sich aus dem, was die meisten Leute anklickten. Von selbst Ergebnisse ohne jegliche Diskriminierung zu liefern, überfordere die Software.

Maßnahmen und Lösungsansätze

Dass Google jedoch durchaus in die Präsentation der Suchtreffer und -vorschläge eingreift, zeigen verschiedene Beispiele, etwa das der US-amerikanischen Professorin Safiya Umoja Noble. In ihrem 2018 erschienenen Buch „Algorithms of Oppression“ (Algorithmen der Unterdrückung) kritisierte sie unter anderem rassistische und stereotype Vorschläge für die Auto-Vervollständigung des englischen Satzes „Warum sind schwarze Frauen so“. Wer heute diesen Satz in die Suchmaschinenmaske tippt, erhält keine Ergänzungsvorschläge mehr.

Große Aufmerksamkeit erfuhr in Deutschland 2015 der Streit zwischen Bettina Wulff und Google über die Kombination ihres Namens mit ehrabschneidenden Begriffen in der automatischen Such-Vervollständigung. Der Konzern lenkte ein und entfernte die Ergänzungen zur Frau des damaligen Bundespräsidenten. Darüber hinaus hat das Unternehmen im Juni 2018 angekündigt, künftig ein besonderes Augenmerk darauf zu legen, dass seine Software keine „unfairen Vorurteile“ aufweist oder nach Hautfarbe, Geschlecht, sexueller Orientierung oder Einkommen diskriminiert.

Eine, die die Dinge selbst in die Hand nehmen wollte, ist Johanna Burai. Die Designerin aus Schweden hat sich an Suchergebnissen bei der Recherche nach Fotos von Händen gestört. Burai fand bei Google hauptsächlich Bilder von weißen Händen. 2015 hat sie darum eine Kampagne mit dem Titel „World White Web“ ins Leben gerufen, um gegen „die weiße Norm“ im Netz vorzugehen. Auf einer Website hat sie seither zahlreiche Fotos von Händen unterschiedlichster Hautfarben hochgeladen, damit andere sie teilen können, und will so auf lange Sicht andere Bilder ins System spülen.

Doch wie kann sichergestellt werden, dass auch KI-Technologien künftig klügere und fairere Entscheidungen treffen? Rechtlichen Handlungsbedarf sieht Susanne Dehmel nicht. „Es ist ein Kompetenzproblem. Erst wenn man versteht, wie die Technologie funktioniert, kann man Diskriminierung sorgfältig entgegentreten“, meint Dehmel. Dass es nicht ausreiche, Angaben zu Gender und Hautfarbe aus den Datensätzen zu nehmen, habe sich bereits in der Vergangenheit gezeigt. Die Algorithmen hätten weniger offensichtliche Zusammenhänge in den historischen Daten gefunden und seien so zu den gleichen diskriminierenden Ergebnissen gekommen. Dehmel schlägt darum ausgewogene Datensätze, eine sorgfältige Konzeption der Software sowie Testläufe vor.

Jaume-Palasí fordert vor allem kontinuierliche Kontrolle der algorithmischen Systeme. Hinter KI müsse mehr als ein Entwickler und ein Datenwissenschaftler stehen. Für die Kontrolle „braucht man Soziologen, Anthropologen, Ethnologen, Politologen. Leute, die die Ergebnisse in dem jeweiligen Sektor, in dem die Technologie angewendet wird, besser einordnen können“, sagt die Datenethikerin. „Wir müssen endlich abkommen von dem Glauben, dass KI ein rein informatisches Thema ist.“ Dabei handele es sich vielmehr um eine Technologie, die die gesamte Gesellschaft betreffe.

(dpa)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort