Die Macht der Algorithmen Menschenwürde in Maschinenhand

Saarbrücken/Kaiserslautern · Spezielle Programmteile, sogenannte Algorithmen, werden immer häufiger eingesetzt, um persönliche Daten auszuwerten. Dieser unmenschliche Umgang mit menschlichen Schicksalen könne gravierende Folgen haben, warnen Kritiker.

.

.

Foto: SZ

Algorithmen sind Teil von Computerprogrammen und dienen der Lösung von Problemen. Sie erkennen etwa Muster in einer riesigen Datenmenge und filtern sie nach dem gewünschten Ergebnis. Der Algorithmus in einem Navigationsgerät zum Beispiel errechnet in kürzester Zeit den schnellsten Weg von A nach B, ohne Staus, Baustellen oder Einbahnstraßen. Algorithmen erleichtern unser Leben.

„Künstliche Intelligenz hat Chancen“, sagt Katharina Zweig von der Technischen Universität Kaiserslautern. „Sie kann aber auch gefährlich sein, wenn dahinter ein bestimmtes Menschenbild steht.“ Zweig gründete 2016 mit zwei Journalisten und einer Rechtsphilosophin die Bürgerrechtsinitiative „Algorithmwatch“. Sie hat sich zum Ziel gesetzt, Prozesse algorithmischer Entscheidungsfindung, die gesellschaftliche Auswirkungen haben können, zu beobachten und einzuordnen.

Zum Beispiel, wenn in den USA eher Frauen als Männer Werbung für schlechter bezahlte Jobangebote angezeigt bekommen. Denn Frauen bewerben sich häufiger auf schlechter bezahlte Jobs als Männer. Der Algorithmus zeige Menschen Angebote im Netz, die sie mit hoher Wahrscheinlichkeit anklicken. Damit werde gesellschaftliche Ungleichheit fortgeschrieben, so Zweig. Oder wenn, wie in Polen, Arbeitslose mit Hilfe von Algorithmen klassifiziert würden und somit eine Software bestimme, welche unterschiedlichen Arbeitsmarktprogramme die Menschen erhielten.

Nach dem Prinzip des sogenannten maschinellen Lernens können Algorithmen aus Beispielen „lernen“, indem sie Muster und Gesetzmäßigkeiten in einer Datenmenge erkennen. „Im Fall von automatisch bewerteten Bewerbungen kann das problematisch sein“, sagt Zweig. Es gebe etwa Studien, die zeigten, dass in Deutschland Bewerber mit ausländisch klingenden Namen seltener zu Vorstellungsgesprächen eingeladen würden als die mit einem deutschen Namen. Wenn der Algorithmus einer Personalabteilung also aus den Daten der vergangenen Jahren lerne, lerne er die Verzerrung mit, erklärt Zweig. „Lässt man den Algorithmus einfach vor sich hinrechnen, setzt sich die Diskriminierung einfach fort.“

„Eigentlich müsste es ’Ethik der Informatiker’, nicht ’Ethik der Algorithmen’ heißen“, sagt Kevin Baum, Philosoph und Informatiker an der Universität des Saarlandes. Denn hinter jedem Algorithmus stehen Programmierer. Immer im Sommersemester hält Baum die Vorlesung „Ethics for Nerds“ – frei übersetzt: „Ethik für Computerexperten“. Auf dem Stundenplan stehen Moraltheorie, Philosophie, ethische Leitlinien, Technikfolgen-Abschätzung und -Bewertung. Man wolle Programmierer dazu befähigen, im Berufsleben auch die ethischen Auswirkungen ihrer Arbeit und die von Algorithmen miteinzubeziehen, sagt Baum.

Programmierer müssten verstehen, dass sie nicht nur technische Probleme zu lösen hätten, betont Baum. Mit seiner Vorlesung will er erreichen, dass Informatiker sich fragen, was und wozu von Computerprogrammen gefiltert wird. „Informatik beeinflusst unsere Gesellschaft – wie und in welchem Umfang, das müssen wir diskutieren“, sagt der IT-Fachmann.

Die Diskussion über den Einsatz von Algorithmen steht in Deutschland noch am Anfang. Ein im Mai vorgestelltes Arbeitspapier der Bertelsmann-Stiftung kommt zu dem Schluss, dass Prozesse algorithmischer Entscheidungsfindung „noch nicht so präsent“ seien. Der Bundesverband der Verbraucherzentralen hat im Frühjahr einen „Algorithmen-Tüv“ vorgeschlagen. Eine Behörde oder Institution solle demnach ein Auge darauf haben, ob etwa jemand wegen bestimmter Daten-Informationen benachteiligt werde.

Auch in den USA werden schon heute Algorithmen eingesetzt, um über menschliche Schicksale zu entscheiden. Das Programm „Compas“ zum Beispiel kann, so behauptet der Entwickler, die Rückfallwahrscheinlichkeit eines Straftäters errechnen. Das geschieht mittels eines Fragebogens zu Familienverhältnis, Gewalterfahrung und Wohnort. Wie der Algorithmus dabei genau arbeitet, ist nicht bekannt. Nach Recherchen von US-amerikanischen Journalisten sagt das Programm auffällig oft dunkelhäutigen Beschuldigten eine hohe Rückfallwahrscheinlichkeit vorher. Das Programm, das vermeintlich objektiv arbeite, habe den Rassismus der Justizbehörden gegenüber Schwarzen reproduziert, weil es die bereits existierende Diskriminierung einfach nachbilde.

„Wir dürfen gewisse Prozesse niemals vollständig automatisieren“, resümiert Kevin Baum. Algorithmen könnten als Hinweisgeber herangezogen werden. „Aber um eine Entscheidung zu treffen, muss da noch einmal ein Mensch mit Menschenverstand ran.“

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort