| 20:44 Uhr

Wie wird Künstliche Intelligenz unser Leben verändern?
Zweischneidiges Forschungsschwert KI

Der japanische Roboterforscher Hiroshi Ishiguro mit seinem Androiden „Geminoid“, seinem Schöpfer zum Verwechseln ähnlich.
Der japanische Roboterforscher Hiroshi Ishiguro mit seinem Androiden „Geminoid“, seinem Schöpfer zum Verwechseln ähnlich. FOTO: dpa / Massimo Percossi
Saarbrücken. Was die Künstliche Intelligenz heute kann und in den nächsten Jahren noch mit uns tun wird: Ein neues Buch gibt Antworten. Von Christoph Schreiner
Christoph Schreiner

Autonom fahrende Autos. Sprechende Kühlschränke. Zweifelhafte Wohnzimmergefährten wie Alexa. Ihren Standort funkende Pakete. Personalbewerbungen vorsortierende Algorithmen. Roboterkolonnen in Fabriken. In der Altenpflege eingesetzte Roboterrobben wie Paro: Die Künstliche Intelligenz (KI) dringt in immer mehr Alltagsbereiche vor. Bis 2020 dürften jüngsten Schätzungen zufolge etwa 30 Milliarden Geräte miteinander im Internet kommunizieren. Wobei fast jedes lückenlos zu orten ist und Stück um Stück Lebensprofile erstellt werden. Die IT-Technologie ist, da sollten wir uns nichts vormachen, Fluch und Segen zugleich.


Umso wichtiger ist es, zwischen Fakten und Mythen zu unterscheiden und in Sachen KI darüber aufzuklären, „was sie kann und was uns erwartet“, wie es im Untertitel von Manuela Lenzens den aktuellen Forschungsstand aufarbeitendem Buch „Künstliche Intelligenz“ heißt. Der große Vorzug dieser Neuerscheinung ist es, klare Trennlinien zu ziehen: Lenzen zeigt einerseits, in welchen Bereichen sich die Forschung rasant (und mit mitunter heiklen Folgen) entwickelt; andererseits aber verdeutlicht sie auch, inwieweit unsere Phantasie die Möglichkeiten der Künstlichen Intelligenz überflügelt – sprich: wir uns dystopische Szenarien ausmalen, für die der heutige Forschungsstand wenig Anlässe gibt.

Bereits im ersten Kapitel macht die Wissenschaftsjournalistin klar, dass es bis heute ungeachtet beeindruckender Fortschritte in der Programmierung von Sprachcomputern kein Dialogsystem gibt, das wir mit einem Menschen verwechseln und das uns insoweit „längere Zeit in die Irre führen könnte“. Schon deshalb, weil die Funktions- und Reaktionsebenen unserer Kognition (und wie viel mehr erst die unseres Affektlebens!) erst ansatzweise ergründet ist. Die Robotik ist, macht Lenzen klar, weit entfernt von einer umfassenden Imitation menschlicher Möglichkeiten. Zwar sind wir Maschinen und Computerprogrammen in Einzelbereichen heute meist unterlegen, im Gegensatz zu diesen beherrschen wir sie jedoch halbwegs alle zugleich.

Drei Ziele macht Lenzen in der derzeitigen KI-Forschung aus: 1) Ein anwendungsorientierter Ansatz zielt auf Systeme, die (ob als Lernsysteme, Bilderkennung, Sprachverarbeitung oder in der Robotik) eine bestimmte Leistung erbringen – und sei es auf eine uns ganz fremde Art. 2) Ein kognitionstheoretischer Ansatz widmet sich der Frage, wie das menschliche Gehirn funktioniert. 3) Der überwiegende Teil der KI-Forschung konzentriert sich auf den „Bau von Spezialisten“, denen eine „künstliche allgemeine Intelligenz“ zugrundeliegt, die Bausteine aus den beiden anderen Forschungsbereichen kombiniert.

Generell erzeugt die KI-Forschung heute das, was man Maschinenintelligenz nennt, meist mittels Algorithmen, die Problemlösungen automatisieren, indem sie Daten strukturieren, darin wiederkehrende Muster erkennen und so „künstliche neuronale Netzwerke (KNN)“ bilden. Nach diesem Prinzip funktionieren etwa Spamfilter oder Suchmaschinen. Doch haben solche lernende Systeme Lenzen zufolge bis heute ein Gedächtnisproblem – in der Forschung spricht man vom „catastrophic forgetting“ der KNN-Systeme und meint damit, dass die Systeme altes Wissen vergessen, sobald sie neue Aufgaben übernehmen. Die Vernetzung spezifischer Datenprogramme im Zeichen des sogenannten „Deep Learning“ bleibt demnach eine der großen Herausforderungen der KI-Forschung.



Andererseits sind die ambitionierteren Computersysteme durchaus lernfähig, vermögen sich also selbst zu verbessern. Der nächste Schritt wären Systeme wie das von Microsoft und der Uni Cambridge derzeit entwickelte DeepCoder-Programm, die sich selbst programmieren können. Den größten Schub könnte der KI-Forschung eine Homogenisierung der vorhandenen Systeme bringen – in den USA wird an einem solchen „RoboBrain“ bereits gearbeitet, das man sich als eine Wikipedia für Roboter denken kann.

Das Grundproblem der KI-Forschung aber, dass Weltwissen nicht nur aus logischen Ketten besteht, existiert fort. Weshalb nicht wenige Forscher Intuition und Kontextwissen für ebenso bedeutend für das Generieren von Intelligenz halten. Auf der einen Seite gibt es Forscher wie Douglas Lenat, der seit 1984 an seiner „Encyclopedia Cyc“ arbeitete und diese 2016 abschloss: Sie beinhaltet 500 000 Begriffe, die über insgesamt 17 000 verschiedene Relationen verbunden sind und inzwischen als Meta-Datenbank im Gesundheitswesen oder Finanzsektor Eingang findet. Lenat setzt auf das, was Spötter die ganz auf Logik setzende „Gofai“ nennen („good old fashioned artificial intelligence“). Er fütterte seine Datenbank nach klaren Verknüpfnungsregeln und gab dem Computer eine wohlgeordnete Welt vor. Das andere KI-Lager glaubt, dass „subsymbolische Systeme“ hinzutreten müssen: sogenannte Lernsysteme, die Verlässlichkeitswerte errechnen und über Feebacksignale Netzwerke bilden, Inkonsistenzen ausmachen und Schätzungen vornehmen. Andere Ansätze wie der von der EU geförderte Kindroboter iCub wiederum setzen laut Lenzens Recherchen darauf, dass eine menschenähnliche Intelligenz quasi entwicklungsbiologisch analog unsere Genese vom Kind zum Erwachsenen durchlaufen muss.

Lenzens Buch ist in zwei Großkapitel gegliedert: Während sie im ersten Teil den aktuellen Forschungsstand bilanziert, schlägt sie im zweiten den Bogen in die Zukunft und führt aus, wie das „Internet der Dinge“ und die „Industrie 4.0“ unsere Gesellschaft und Arbeitswelt in den kommenden Jahrzehnten revolutionieren werden. Werden wir die algorithmisierte Welt noch begreifen geschweige denn überblicken? Lenzen rät zu Differenzierungen: In der Medizininformatik etwa dürften sich mit gigantischen Datenmengen gefütterte IT-Systeme als Segen erweisen, weil sie präzisere Diagnosen und Therapien ermöglichen. Doch auch hier bleibt das Fortschrittsschwert ein zweischneidiges: Je öfter die elektronische Zweitdiagnose sich als zuverlässig erweist, könnte sie den vom Computervotum gleichwohl aus fachlichen Gründen abweichenden Arzt womöglich schleichend entmündigen. Müssen doch nicht alle von Lernalgorithmen jeweils ausgemachten Korrelationen auch Sinn machen.

Das Erfassen und Speichern von Abermilliarden Daten ist denn auch bei allem Nutzen im Detail eine der größten Gefahren der Digitalwirtschaft. Umso mehr, weil die Algorithmen konfigurierenden Privatunternehmen Google und Facebook & Co unser Weltwissen nach Belieben filtern können – die Infoblasen von heute, in denen manche leben, dürften erst ein Vorgeschmack jenes digitalen Autismus sein, der uns noch ins Haus stehen wird. Droht doch, was wir Privatsphäre nennen, immer mehr zur naiven Illusion zu werden. Lenzens erhellendes Buch thematisiert auch das Für und Wider des Einsatzes von „intelligenten Assistenten“ in Kindererziehung oder Altenpflege. Oder den Einfluss der KI-Forschung auf die Entwicklung autonomer Waffensysteme. Ihr Resümee fällt zwiespältig aus: Einerseits werde die Intelligenz intelligenter Systeme überschätzt. Andererseits dürften wir nicht immer mehr Kompetenzen an diese abtreten. Noch habe man die Kontrolle über die Technik. Nur liegt die „in den Händen einer kleinen Elite“. Sodass sich die Frage stellt, ob für diese Marktmacht nicht Vorrang hat vor gesellschaftlicher Verantwortung.

Manuela Lenzen: Künstliche Intelligenz. Was sie kann & was uns erwartet. C.H.Beck, 272 Seiten, 16,95 €.