Künstliche Intelligenz Die dunkle Seite Künstlicher Intelligenz

Saarbrücken · Eine Europol-Studie beleuchtet die Gefahren, die mit den technischen Neuerungen einhergehen.

Mit Hilfe Künstlicher Intelligenz wollen Cyberkriminelle die Daten ihrer Opfer stehlen.

Mit Hilfe Künstlicher Intelligenz wollen Cyberkriminelle die Daten ihrer Opfer stehlen.

Foto: dpa/Sebastian Gollnow

Künstliche Intelligenz (KI) gehört zu den wichtigsten Neuerungen der Informationstechnik (IT), denn die KI trägt maßgeblich zur Weiterentwicklung von Computerprogrammen bei. Das beste Beispiel für den KI-Einsatz ist das selbstfahrende Auto. Aber auch bei der Sicherung von sensiblen Informationen wie etwa Bankdaten oder bei täglichen Verwaltungsaufgaben spielt KI eine immer wichtigere Rolle.

Doch die KI bietet nicht nur Nutzen. Inzwischen verwenden neben Hackern weitere kriminelle Organisationen die technischen Neuerungen. Europol, die Polizeibehörde der Europäischen Union, hat zusammen mit dem UN-Institut für Kriminalitäts- und Justizforschung (UNICRI) sowie der IT-Sicherheitsfirma Trend Mirco eine Studie veröffentlicht, die potenzielle Gefahren von KI sowie Gegenmaßnahmen beleuchtet.

In der Studie wird deutlich, dass es für die Täter inzwischen nicht mehr notwendig ist, selber über komplexe IT-Kenntnisse zu verfügen, denn inzwischen werden vorgefertigte KI-Lösungen von Dienstleistern mit kriminellen Absichten angeboten.

KI spiele für kriminelle Organisationen bei der Entwicklung von Schadprogrammen eine Rolle. Die Umsetzung stehe jedoch noch am Anfang. Allerdings helfe die neue Technik zum Beispiel dabei, die ohnehin schon komplexen Codes der Schadsoftware besser zu verschleiern, sodass diese schwieriger zu finden sind.

Sprachassistenten wie Amazons Alexa oder Google Home stehen ebenfalls im Fokus von KI-basierten Angriffen. Es können etwa Sprachbefehle des Nutzers aufgezeichnet und dann unter Umständen zu einem späteren Zeitpunkt missbräuchlich abgespielt werden. Eine weitere Gefahr bergen intelligente Geräte. Viele Sprachassistenten sind laut der Studie mit weiteren Smart-Home-Geräten gekoppelt, wodurch beispielsweise ein Einbruch erleichtert werden könnte.

Die selbstlernenden Algorithmen der KI können auch darauf angesetzt werden, Passwörter zu knacken. Weitere Einsatzgebiete der Künstlichen Intelligenz, um Schaden anzurichten, werden laut Studie auf einschlägigen Untergrund-Foren diskutiert. So bestehe die Möglichkeit, mit KI menschliches Verhalten in sozialen Netzwerken zu imitieren und dadurch die Schutzmechanismen der Plattformen zu umgehen. Zum Beispiel wurden Lieder beim Audio-Streaming-Dienst Spotify von KI-Programmen hochgeladen, die sich als Hörer ausgaben und das Lied massenhaft anklickten. Auf diese Weise hätten die Täter Geld erbeuten können. Um dem Betreiber der Plattform nicht aufzufallen, hätten die KI-Programme eigene Musik-Playlisten erstellt, um einem normalen Nutzer zu entsprechen.

Auch im Bereich des Online-Trickbetrugs spiele Künstliche Intelligenz eine immer bedeutendere Rolle. So bestehe die Möglichkeit, Profile von Mitgliedern in sozialen Medien zu untersuchen, um mögliche Opfer ausfindig zu machen und mit diesen gezielt Kontakt aufzunehmen. Dabei gehe es in der Regel um Trickbetrug – seien es Maschen, mit denen auf offene Rechnungen verwiesen wird, der Enkeltrick oder andere Gaunereien.

Laut der Europol-Studie gibt es weitere Methoden, wie Online-Kriminelle Künstliche Intelligenz für ihre Zwecke einsetzen können – unter anderem sogenannte Deep­fakes, manipulierte Bilder oder Videos, in denen künstlich hergestellte Inhalte täuschend echt wirken. Eine der größten Gefahren liege in der gezielten Falschinformation. Die Studie führt zwei mögliche Bedrohungen an, die daraus resultieren. Zum einen sei die Täuschung durch manipulierte Videos, in denen zum Beispiel Regierungsoberhäupter Aussagen machen, die mittels einer Künstlichen Intelligenz manipuliert wurden, eine Gefahr. Zum anderen bestehe die Bedrohung, dass tatsächliche Äußerungen von Staatschefs nicht mehr geglaubt werden, da die Aussagen manipuliert sein könnten.

In den bisherigen Fällen handelt es sich bei Deepfakes zumeist um Bild- und Videomanipulationen, in denen die Köpfe von Politikern auf Pornodarstellern montiert wurden. So gibt es der Studie zufolge Bilder und Videos, in denen Angela Merkel oder Ursula von der Leyen Opfer sind.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort