Wenn Roboter zum Leben erwachen

Saarbrücken · Das EU-Parlament hinterfragt die heiklen ethischen und rechtlichen Aspekte der Robotik.

Könnte es sein, dass Roboter in nicht allzu ferner Zukunft zu unseren Rivalen werden? Weil sie außer Kontrolle geraten und erfassen, dass sie uns überlegen sind? Der Physiker Stephen Hawking, der sich infolge einer degenerativen Erkrankung des motorischen Nervensystems nur noch über einen Sprachcomputer verständigen kann, hält dieses Szenario für nicht unwahrscheinlich. Bereits 2014 warnte er davor, dass Roboter "das Ende der Menschheit einleiten könnten" - weil die Künstliche Intelligenz (KI-Forschung) selbstlernende Roboter entwickle, die sich mit solcher Rasanz weiterentwickeln, dass die Menschheit irgendwann das Nachsehen habe. "Da der Mensch durch langsame biologische Evolution beschränkt ist, könnte er nicht konkurrieren und würde verdrängt werden", meinte Hawking seinerzeit gegenüber BBC.

Knapp ein halbes Jahrhundert vor Hawking gab Stanley Kubricks Film "2001: Odyssee im Weltraum" bereits einen Vorgeschmack darauf, wie ein solcher Kontrollverlust über Roboter aussehen könnte: Auf dem Flug zum Planeten Jupiter driftet der Cyborg HAL langsam ab und wird immer verhaltensauffälliger, so dass die Besatzung ihn abschalten will. Als HAL das merkt, bringt er die Wissenschaftler nach und nach um. Ist HAL ein bloßes technoides Schreckgespenst aus dem Reich der Science-Fiction? Oder nehmen wir "Commander Data", den uns Menschen zum Verwechseln ähnlichen, aber im Unterschied zu uns 60 Billionen Rechenoperationen in der Sekunde durchführenden Android aus "Star Trek": Könnte "Commander Data" in 20 Jahren unser Nachbar sein?

Hellhörig macht, dass ausgerechnet ein Science-Fiction-Autor 1942 jene drei Grundregeln formuliert hat, die KI-Forscher noch heute wie einen hippokratischen Eid herunterbeten. In seiner Erzählung "Runaround" formulierte Isaac Asimov, was auch ein gerade verabschiedetes Papier der EU-Parlamentarier nicht zu zitieren vergisst: "1) Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2) Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen - es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3) Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert."

Vergangene Woche sind die "elektrischen Personen" im EU-Parlament angekommen. In einer 28-seitigen Resolution, die die EU-Kommission nun in ein Gesetz gießen soll, haben die Parlamentarier mit großer Mehrheit zivilrechtliche Regelungen im Bereich der Robotik angemahnt. Die Menschheit stehe infolge der Entwicklung der Künstlichen Intelligenz (KI) an der Schwelle einer neuen industriellen Revolution, "die wahrscheinlich keine Gesellschaftsschicht unberührt lassen wird", heißt es lapidar in der Einleitung. Schon die alphabetisch gelisteten Vorbemerkungen sind so umfassend, dass die 26 Buchstaben von A bis Z dazu nicht ausreichen (weshalb die Einleitung erst in einem zweiten Durchlauf bei Punkt A I endet). Die ganze Vertracktheit der Technikfolgen-Abschätzung der KI illustriert Punkt T. Dort heißt es, "dass die Roboterregeln von Asimov auf Entwickler, Hersteller und Betreiber von Robotern - darunter auch solche mit integrierter Autonomie und der Fähigkeit zum Selbstlernen - gerichtet werden müssen, da diese Gesetze nicht in einen Maschinencode umgewandelt werden können". Genau das ist des Cyborg-Pudels Kern: Wie implementiert man Robotern diese kategorischen Imperative?

Das Straßburger Positionspapier zeigt, dass die Parlamentarier sich, soweit dies Fachfremden möglich ist, mit der Materie vertraut gemacht haben. Sie mahnen nicht nur ein ethisches Regelwerk für den Einsatz von Robotern in der Pflege oder im Straßenverkehr an, "damit die Würde, die Autonomie und die Selbstbestimmung der einzelnen Person gewahrt bleiben". Sie fordern auch ein europaweites Registrierungs- und Pflichtversicherungssystem für "fortschrittliche Roboter" oder mahnen, selbige mit "Kill-Schaltern" (Notabschaltung) und einer "Blackbox" auszustatten, die sämtliche maschinell ausgeführten Aktionen speichert. Die EU-Parlamentarier belassen es aber nicht allein bei flankierenden zivilrechtlichen Maßnahmen, sie propagieren auch eine "Charta für Robotik": KI-Ingenieure sollen demnach etwa künftig für die Folgen ihrer Forschung zur Rechenschaft gezogen werden können.

Eher naiv mutet hingegen der Vorschlag an, in einer solchen Charta ein Prinzip der Umkehrbarkeit festschreiben zu wollen: "Umkehrbarkeit ist als notwendige Bedingung der Kontrollierbarkeit ein Grundkonzept bei der Programmierung eines sicheren und zuverlässigen Roboterverhaltens." Wird dieses "Zurück auf Null"-Prinzip immer gegeben sein? Je mehr Roboter "eigenständig Entscheidungen treffen", heißt es an anderer Stelle des Papiers vielsagend, umso dringlicher stelle sich "die Frage nach ihrer Rechtsnatur". Zumal "Roboter der neuen Generation" über Fähigkeiten verfügten, "die ein gewisses Maß an Unvorhersehbarkeit in ihrem Verhalten zur Folge haben". In Straßburg, daran lässt diese Resolution zwischen den Zeilen keinen Zweifel, ist die Zukunft Gegenwart geworden.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort