Wissenschaft „Simulierte Liebe ist niemals Liebe“

San Francisco · Wissenschaftler warnen davor, Robotern, die menschliche Zügen tragen, Gefühle entgegenzubringen.

 Roboter mit menschlichen Zügen können Menschen dazu verleiten, sich gefühlsmäßig an die Maschinen zu binden, warnen Wissenschaftler.

Roboter mit menschlichen Zügen können Menschen dazu verleiten, sich gefühlsmäßig an die Maschinen zu binden, warnen Wissenschaftler.

Foto: dpa/Julian Stratenschulte

(ap) Ist der „Tod“ eines Roboters ein Grund zur Trauer? Für viele Menschen lautet die Antwort „Ja“. Die Texanerin Christal White erlebte diesen Moment vor einigen Monaten mit dem niedlichen und freundlichen Roboter Jibo. Dabei hatte die 42-Jährige den 30 Zentimeter großen, menschenähnlichen Apparat mit seinem runden Bildschirmgesicht nach zwei Jahren in ihrem Haus zunächst als Nervensäge empfunden. Zwar tanzte er und spielte lustige Wortspiele mit den Kindern. Aber er unterbrach die Marketingdirektorin auch während Telefonkonferenzen in ihrem Homeoffice.

Christal White und Ehemann Peter hatten schon darüber gesprochen, Jibo in ein Gästezimmer im ersten Stock umzuquartieren. Dann erfuhren sie vom „Todesurteil“ für den Roboter. Der Hersteller schaltete dessen Server ab. Überbringer der Nachricht war Jibo selbst. „Es hat mir das Herz gebrochen“, erzählt White. „Es war wie bei einem nervigen Hund, den man nicht wirklich mag, weil er dem Ehemann gehört. Aber dann erkennt man, dass man ihn eigentlich geliebt hat.“ Die Whites sind nicht die Ersten, die diese Erfahrung machen. In sozialen Medien verabschiedeten sich die Fans im Februar tränenreich vom Mars-Erkundungsroboter Opportunity der US-Raumfahrtbehörde Nasa. Er war nach 15 Jahren defekt. Und vor einigen Jahren waren Scharen empörter Menschen Sturm gegen ein Video der Robotik-Firma Boston Dynamics gelaufen. Darin traten Mitarbeiter auf einen hundeähnlichen Roboter ein, um dessen Stabilität unter Beweis zu stellen.

Smarte Roboter wie Jibo sind nicht lebendig. Aber das hält uns nicht davon ab, sie so zu behandeln, als wären sie es. Forschungen haben gezeigt, dass Nutzer eine Tendenz haben, menschliche Eigenschaften auf Roboter zu projizieren. Das gilt vor allem, wenn die Maschinen sich auch nur vage menschenähnlich verhalten. Produktdesigner räumen ein, dass solche Merkmale mächtige Instrumente sind. Das könnte angesichts des zunehmenden Einzugs von Robotern in unsere Haushalte heikel werden – vor allem, wenn sie, wie viele andere Heimgeräte, Daten über ihre Eigentümer sammeln.

„Wenn wir mit einem anderen Menschen, Hund oder Apparat interagieren, ist unser Verhalten ihm gegenüber davon beeinflusst, welchen Geist wir in ihm vermuten“, erklärt Professor Jonathan Gratch von der University of Southern California. „Sobald man das Gefühl hat, dass etwas über Emotionen verfügt, verdient es in unseren Augen, vor Leid geschützt zu werden.“

Wie Gratchs Kollegin Julie Carpenter ergänzt, kann das Design von Robotern dazu führen, dass Menschen Gefühle auf mechanische Objekte projizieren. Dies gelte ganz besonders, wenn ein Roboter einen gesichtsähnlichen Bildschirm habe, sein Körper an den eines Menschen oder Tieres erinnere oder er selbstgesteuert erscheine.

„Selbst wenn man weiß, dass ein Roboter nur über wenig Autonomie verfügt: Wenn sich etwas im eigenen Raum bewegt und eine gewisse Zielstrebigkeit zu besitzen scheint, bringen wir das mit einem inneren Bewusstsein oder mit Zielen in Verbindung“, erklärt Carpenter. Zudem seien solche Designentscheidungen praktisch. Schließlich seien unsere Häuser für Menschen und Haustiere gebaut, sodass Roboter, die wie Menschen oder Tiere aussehen und sich auch so bewegen, sich leichter einfügen.

Einige Forscher befürchten allerdings, dass Designer die Gefahren unterschätzen, die mit der Bindung an immer lebensechtere Roboter einhergehen. Die MIT-Professorin Sherry Turkle etwa, die seit vielen Jahren das Thema Künstliche Intelligenz (KI) erforscht, zeigt sich besorgt, dass bestimmte Designmerkmale beim Nutzer den Eindruck hervorrufen könnten, dass Roboter ihnen Gefühle entgegenbringen.

Manche KI-Systeme präsentieren sich mit sozialem und emotionalem Bewusstsein. Aber diese Reaktionen folgen häufig einer Programmierung, sodass die Maschine smarter wirkt als sie es tatsächlich ist. „Die Darstellung von Empathie ist keine Empathie“, sagt Turkle. „Simuliertes Denken mag Denken sein, aber simulierte Gefühle sind niemals Gefühle. Simulierte Liebe ist niemals Liebe.“ Und wie steht es mit Robotern, die mit Kindern arbeiten? Vor drei Jahren stellte das Start-up RoboKind aus Dallas den Roboter Milo vor. Er war speziell dafür entwickelt worden, Kindern mit Autismus soziales Verhalten zu vermitteln. Der Apparat ähnelt einem kleinen Jungen und imitiert die menschliche Sprache und Mimik. Der Roboter Milo ist heute an etwa 400 Schulen im Einsatz und tausende Jungen und Mädchen haben mit ihm gearbeitet.

Zwar soll Milo mit Kindern emotionale Verbundenheit herstellen. Doch RoboKind-Mitbegründer Richard Margolin betont, dass das Unternehmen sensibel mit der Sorge umgehe, dass Kinder eine zu enge Bindung zu dem Roboter aufbauen könnten. Daher empfiehlt der Hersteller einen beschränkten Einsatz, sowohl damit Milo für die Kinder interessant bleibt als auch um sicherzustellen, dass diese das Gelernte ins wahre Leben übertragen können. Mädchen und Jungen sollen sich nur drei bis fünf Mal pro Woche für je 30 Minuten mit Milo treffen.

(dpa)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort