Deepfakes gehen im Netz in Serie Videos voller falscher Bilder

Saarbrücken · Mit neuen Programmen lassen sich immer besser fremde Gesichter in Filme einbauen. Sie erlauben so Desinformation.

 Mit Computerprogrammen können Gesichter getauscht und damit Fotos oder Videos verfälscht werden. 

Mit Computerprogrammen können Gesichter getauscht und damit Fotos oder Videos verfälscht werden. 

Foto: Getty Images/ iStockphoto/metamorworks

Facebook-Chef Mark Zuckerberg wirbt in einem Spot lautstark für teure und noch teurere Dialysebehandlungen, nennt sich den König der Dialyse. Es ist nur ein kurzer Zwischenspot im knapp 15-minütigen Satire-Video „Sassy Justice with Fred Sassy“. Doch das Youtube-Video strotzt auch sonst nur so vor Merkwürdigkeiten. Angefangen beim Moderator, der dem amerikanischen Präsidenten Donald Trump verblüffend ähnlich sieht, aber grauweiße lockige Haare hat, Nachrichtenmoderator ist und Fred Sassy heißt. Erster Interviewpartner von Sassy ist der ehemalige Vizepräsident Al Gore. Wenig später erzählt Ivanka Trump, was sie von Russland hält und Moderator Sassy löchert bald darauf Schauspieler Michael Caine. Und schließlich wird scheinbar auch Präsident Trump interviewt. Keine der Persönlichkeiten im Video ist real für den Dreh vor Ort, alles falsch, alles fake.

Das Youtube-Video bildet den Auftakt zur neuen englischsprachigen Serie „Sassy Justice“ (mit teils anstößigem Humor), die von den Erfindern der amerikanischen Zeichentrickserie Southpark stammt, Trey Parker und Matt Stone. Möglich ist Umsetzung von „Sassy Justice“ nur, indem im großen Stil sogenannte Deepfakes genutzt werden.

Bei Deepfakes werden Videoquellen unter großem Rechenaufwand in Teilen verändert – beispielsweise kann das Gesicht eines Politikers digital auf den Körper eines Schauspielers montiert werden. Nachdem die Schauspieler die gewünschte Situation dargestellt haben, kommen Computer ins Spiel. Sie errechnen die Lippenbewegungen, das Blinzeln und die Mimik des Gesichts der Person, das auf den Körper des Schauspielers montiert wird und dessen eigentlichen Kopf ersetzt. Mit mehr oder weniger überzeugendem Ergebnis.

Das Mehr oder Weniger hängt davon ab, wie gut der Computer das Gesicht der Person nachempfinden kann. Dafür werden oftmals sogenannte neuronale Netze genutzt, die ähnlich wie unser Gehirn funktionieren. Je mehr Daten (Bildmaterial) das neuronale Netz von einer Person erhält, desto genauer kann es die Mimik der Person errechnen und nachempfinden. Es lernt anhand dieses Materials. Daher auch die Bezeichnung Deepfake, die sich aus den englischen Begriffen Deep Learning (eingehendes Lernen) und „fake“ (Fälschung) zusammensetzt.

Während große Filmstudios schon seit längerem eine sogenannte De-Aging Software einsetzen, mit der Schauspieler digital verjüngt werden können, steckt die Nutzung von
Deepfakes, mit Hilfe derer Schauspieler digital im Film getauscht werden können, noch in den Kinderschuhen. Der Walt-Disney-Konzern forscht bereits an Methoden.

Aber auch Privatanwendern sind Deepfakes möglich, was Netzvideos belegen. Genutzt wird dafür beispielsweise Software wie Faceswap (für menschliche Gesichter) oder Petswap (für Tieraufnahmen). In Videokonferenzen kann beispielsweise mit dem Programm Avatarify digital über das eigene das Gesicht einer anderen Person gestülpt werden. Die Software Deepfake Lab ermöglicht komplexere Videos.

Die selbsterstellten Deepfakes können humorvoll eingesetzt werden oder aus Experimentierfreude. Star-Wars-Fans ersetzten in einem Ausschnitt des Films „Star Wars A Solo Story“ etwa den eigentlichen Schauspieler Alden Ehrenreich durch Harrison Ford. Aufsehen erregte im Netz aber auch eine Anwendung namens Deepnude, die falsche Gesichter auf Pornodarsteller montieren kann und unter anderem im Messengerdienst Telegram missbräuchlich eingesetzt wird.

Wie groß die Gefahr auch für Demokratien ist, die von Deepfakes ausgeht, lässt sich nicht konkret feststellen. Die Bundesregierung stellte in der Antwort auf die Kleine Anfrage des FDP-Abgeordneten Manuel Höferlin vom Dezember 2019 fest, dass Deepfake-Anwendungen eine Gefahr darstellen können, „da Deepfakes grundsätzlich zur Manipulation der öffentlichen Meinung und damit zur gezielten Einflussnahme auf den politischen Prozess eingesetzt werden können.“ Es könne nicht ausgeschlossen werden, dass „eine Bedrohung demokratischer Prozesse durch Deepfakes erfolgen kann.“ Die Bundesregierung weist aber auch darauf hin, dass sich mit fortschreitender Entwicklung der Technik gleichzeitig „die Mechanismen zur Erkennung von Fälschungen und Fälschungsversuchen“ verbessern. Als mögliches Einfallstor für
Deepfakes zur gezielten Desinformation nennt die Regierung in der Antwort vom Dezember 2019 Soziale Medien. Facebook hat im Januar 2020 angekündigt, gegen Deep­fake-Videos auf seiner Plattform vorgehen zu wollen, Satire ausgenommen. Auch Tech-Giganten wie Microsoft haben den Kampf gegen Deepfakes zur Desinformation aufgenommen.

Im September stellte das Unternehmen die KI-Software Video Authenticator (Video Echtheitsbestätigung) vor. Eine Künstliche Intelligenz, die prozentuale Aussagen darüber treffen können soll, inwieweit ein Video oder Foto manipuliert worden ist. Möglich sei dies, da das Programm Bildübergänge prüfe und charakteristische, für das menschliche Auge kaum sichtbare Merkmale manipulierten Materials wie Bildschärfenunterschiede und Graustufenabweichungen feststellen könne.

Dafür wurde die Künstliche Intelligenz des Video Authenticator laut Microsoft an dem Datensatz Faceforensics++, einer Zusammenstellung aus über 510 000 manipulierten Gesichtsaufnahmen von rund 1000 Videos trainiert. Auch Google forscht auf der dafür geschaffenen Plattform Assembler an Algorithmen, um Falschvideos besser erkennen zu können.

Doch Ermittlern können Deep­fakes auch nützlich sein. Etwa im Kampf gegen Kinderpornografie oder sogenanntes Cyber-Grooming (sinngemäß Internet-Anmache), bei dem Täter gezielt Frauen oder Mädchen im Internet suchen. Derlei Täter könnten theoretisch mit falschen Missbrauchsdarstellungen geködert werden. Damit so die mögliche Einflussnahme auf reale Personen zumindest eingeschränkt wird und die Verantwortlichen letztlich auf frischer Tat gestellt werden können. Letztlich könnten Fälschungen so der Wahrheitsfindung dienen.

Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort