| 21:52 Uhr

Künstliche Intelligenz auf dem Prüfstand
Wenn Programme zu Personen werden

Georg Borges beschäftigt sich mit den rechtlichen Aspekten künstlicher Intelligenz – und den möglichen Risiken, die aus der Technologie entstehen.
Georg Borges beschäftigt sich mit den rechtlichen Aspekten künstlicher Intelligenz – und den möglichen Risiken, die aus der Technologie entstehen. FOTO: Iris Maria Maurer
Saarbrücken. Der Rechtsinformatiker Georg Borges stellt sich an der Saar-Uni die Frage, ob Roboter künftig Rechte und Pflichten bekommen sollten. Von David Seel

Seit Anbeginn des Computerzeitalters träumen Menschen von der künstlichen Intelligenz – von autonomen, selbstständig lernenden Robotern, die jene Arbeiten übernehmen, die uns zu gefährlich, zu schmutzig oder schlicht zu anstrengend erscheinen. Was vor wenigen Jahren noch wie bloße ­Science-Fiction klang, ist heute vielerorts längst Realität. Doch spätestens seit den beiden schweren Unfällen in den USA, bei denen ein Roboterauto des Taxiunternehmens Uber eine Passantin überfahren und der Autopilot eines Tesla seinen Passagier in den Tod gerissen hat, wird das Thema kontrovers diskutiert. Dabei wird immer deutlicher, dass die schöne neue Roboterwelt feste Regeln braucht, wenn der Traum von der unbeschwerten digitalen Zukunft nicht zum dystopischen Albtraum werden soll.


Genau hier setzt die Forschungsarbeit von Georg Borges an. Der Professor für Rechtsinformatik beschäftigt sich an der Saar-Uni mit den rechtlichen Fragestellungen, die sich aus der neuen Technologie ergeben. Eine grundlegende lautet, wie sich der Begriff künstliche Intelligenz überhaupt abgrenzen lässt, solange es nicht einmal eine allgemeingültige Definition von „Intelligenz“ gibt. „Für mich sind das autonome Systeme, deren Verhalten nicht vollständig vorhersehbar ist“, sagt Borges. „Es gibt aber auch Grenzfälle, etwa, wenn ein System so komplex ist, dass sein Programm nicht mit vertretbarem Aufwand analysiert werden kann.“

Darin liegt für Borges auch eine der juristischen Herausforderungen. „Es geht hier auch um die Zuordnung von Verantwortung“, erklärt er. Das sei besonders dann relevant, wenn ein Programm selbstständig dazulernen könne. Dann könnten seine Verhaltensweisen erlernt, statt von Menschen antrainiert worden sein. Ähnliches gelte, wenn ein System von einem anderen Computer programmiert worden sei. „Wenn ich jemandem mit dem Hammer auf den Kopf schlage, ist klar, wer die Schuld trägt“, so der Rechtsinformatiker. „Aber was passiert, wenn mein Haushaltsroboter jemandem verletzt ­– wer trägt dann die Schuld?“ Hier kämen potenziell viele Kandidaten infrage: „Das könnte der Programmierer, der Hersteller des Roboters, der Verkäufer im Laden oder ich als Besitzer sein“, sagt Borges.



Diese Frage habe sich auch bei den beiden tödlichen Unfällen in den USA gestellt. „Dort gilt das deutsche System der Halterhaftung nicht“, so Borges. „In Deutschland ist die Rechtsprechung so, dass in der Regel entweder der Fahrer oder der Halter des Fahrzeugs haftet.“ Beim Tesla-Unfall sei der tödlich Verunglückte allerdings sowohl Halter als auch Fahrer gewesen. „Hierzulande hätte man den Hersteller höchstens über die Produkt- oder die Delikts­haftung zur Verantwortung ziehen können“, so die Einschätzung des Experten. „Das wäre allerdings sehr schwierig gewesen, da man in beiden Fällen hätte nachweisen müssen, dass das Produkt schon im Vorfeld Fehler aufgewiesen hat.“

Die eine allgemeingültige Antwort auf das Problem gibt es laut Borges nicht: „Wir brauchen differenzierte Lösungen“, sagt er. „Im Endeffekt muss der zur Verantwortung gezogen werden, der das Risiko steuert“, so seine Einschätzung. „Im Fall des Teslas war das beispielsweise nicht mehr der Fahrer.“ Dieser Befund lasse sich allerdings nicht beliebig verallgemeinern. „Wenn die Oma über einen Staubsaugerroboter fällt, trägt das Risiko wohl eher derjenige, der ihn dort aufgebaut hat, denn der wusste ja als einziger, dass sie sich dort bewegt.“

Ein Vorschlag, der vielen auf den ersten Blick abwegig erscheinen mag, aber laut Borges von zahlreichen Experten unterstützt wird, lautet, die künstliche Intelligenz selbst zur Verantwortung zu ziehen, ihr also vor dem Gesetz eine eigene Persönlichkeit zuzugestehen. Diese „elektronische Person“ oder kurz E-Person vergleicht er mit der „juristischen Person“, einem Begriff, unter dem beispielsweise Unternehmen rechtlich geführt werden. Diese Entscheidung habe beispielsweise auch gravierende Auswirkungen auf das Urheberrecht. „Wir sehen immer noch nur den menschlichen Geist als einzigen Urheber, dabei gibt es schon jetzt Programme, die wunderschöne Bilder erschaffen“, so Borges. „Aber wem gehören die? Solche Fragen sind völlig ungelöst.“

Der Experte gibt dabei noch einen weiteren Aspekt zu bedenken: „Wir kommen momentan an einen Punkt, ab dem uns unsere Kreationen geistig voraus sind“, so der Rechtsinformatiker. „Derzeit ist das auf sehr spezielle Aufgaben beschränkt, aber es gibt immer mehr solcher Bereiche“, sagt Borges. „Der Mensch wird in eine Situation kommen, in der er zum ersten Mal nicht mehr der Überlegene ist.“ Das sei eines der Argumente derjenigen Forscher, die Maschinen eigene Rechte und Pflichten zugestehen wollten.

Aufseiten der Politik sieht Borges das Problem weniger in der Untätigkeit, als vielmehr in einer Art Aktionismus. „Wenn der Gesetzgeber Handlungsbedarf sieht, dann leider immer einen sofortigen, selbst wenn noch Forschung erforderlich ist.“ Als Beispiel nennt er den unter dem Schlagwort „Algorithmen-Gesetz“ bekannt gewordenen Entwurf, der Diskriminierung im Internet verhindern soll. Dieser soll Online-Händlern beispielsweise verbieten, die Preise auf ihren Webseiten automatisiert auf den jeweiligen Kunden zuzuschneiden. „Der Gesetzgeber sagt dann: ‚In zwei Jahren brauchen wir ein Gesetz‘, während Untersuchungen von uns zu dem Schluss gekommen sind, dass wir dafür noch zu wenig wissen“, berichtet Borges. „Es gab im Vorfeld keine Grundsatzdiskussion darüber, ob solche Praktiken wirklich problematisch oder vielmehr Teil einer freien Marktwirtschaft sind“, klagt er. „Man sollte sich immer zuerst überlegen, ob man etwas verbieten will, bevor man überlegt, wie man es verbietet.“

Solche rechtlichen Fragen müssten ohnehin global diskutiert werden, sagt Borges. Die Europäische Kommission hat ihn kürzlich in eine Expertengruppe berufen, die bei der Etablierung eines ethischen und juristischen Rechtsrahmens beratend zur Seite stehen soll. Entsprechende Regelungen sollen dann im Jahr 2020 EU-weit in Kraft treten. „Europa wird hier eine Vorreiterrolle einnehmen. Besonders in Asien, aber auch in den USA wird man sehr genau schauen, was die Europäer entscheiden“, so Borges Einschätzung.

Die Forschung an der künstlichen Intelligenz zu verbieten, hält er indes für den falschen Weg. „Wissenschaftlicher Erkenntnisgewinn sollte generell nicht eingeschränkt sein“, so seine Meinung. „Das ließe sich sowieso nicht international durchsetzen.“ Die Gesellschaft müsse vielmehr offen diskutieren, ob und wie die Technologie verwendet werden solle. „Gewisse Dinge wie die Entwicklung autonomer Waffensysteme sollte man meiner Meinung nach verbieten, aber das wird wohl kaum passieren“, sagt Borges.

In die Zukunft blickt der Rechtsinformatiker dennoch optimistisch: „Die Menschheit wird sich verändern, das ist klar“, sagt er. „Irgendwann wird es vermutlich menschenähnliche Roboter geben und vielleicht werden wir irgendwann Roboter heiraten. Aber wir werden beispielsweise weiterhin Kinder bekommen“, so seine Einschätzung. Gewisse Grundbedürfnisse des Menschen könne Technologie egal welcher Art einfach nicht verdrängen, sagt Georg Borges.