| 20:00 Uhr

Software erstellt Fälschungen
Diese Trugbilder dürften für Trubel sorgen

Gefälschte Videos könnten auf Mediennutzer eine größere Wirkung haben als andere Falschinformationen, da sie besonders echt wirken.
Gefälschte Videos könnten auf Mediennutzer eine größere Wirkung haben als andere Falschinformationen, da sie besonders echt wirken. FOTO: Feodora/ Fotolia
New York/Saarbrücken. Täuschend echte Videofälschungen könnten Fake News noch schockierender machen – und Filmsynchronisationen verbessern. Von Maximilian Selent

Vor wenigen Monaten sorgte ein Video, in dem der ehemalige US-Präsident Barack Obama seinen Nachfolger Donald Trump als „absoluten Vollidioten“ bezeichnet, in den sozialen Netzwerken für reichlich Aufregung. Das Video wurde millionenfach angesehen. Was viele Internet-Nutzer zunächst nicht bemerkten: Das Video war eine Fälschung, hinter dem der US-amerikanische Komiker Jordan Peele steckte.


Videos wie diese werden als Deep Fakes bezeichnet. Der Begriff setzt sich aus „Deep Learning“, einer Form maschinellen Lernens mittels künstlicher Intelligenz, und Fake (Fälschung) zusammen. Dabei wird das Gesicht einer Person in einem Video durch ein anderes ersetzt. Bei vielen dieser Videos ist die Manipulation schnell ersichtlich. Das gefälschte Video von Obama, welches Peele in Zusammenarbeit mit dem Online-Portal Buzzfeed produzierte, wirkt jedoch täuschend echt. Es soll auf die Gefahr solcher gefälschter Videos hinweisen. Jedoch verfolgen mit dieser Technik nicht alle so edle Ziele wie Peele. Im Internet kursieren etwa gefälschte Pornovideos mit hinein montierten Gesichtern diverser Hollywoodstars. Der Informatik-Professor Hany Farid der amerikanischen Elite-Universität Dartmouth College warnte sogar jüngst, manipulierte Videos könnten zukünftig internationale Konflikte auslösen.



Manipulation Doch wie anspruchsvoll ist es, ein Video derart zu manipulieren? Die Software, mit der Peele das Video bearbeitete, ist im Internet frei zugänglich. Der Komiker gab allerdings an, er habe einen Hochleistungsrechner genutzt, der zur Bearbeitung des Videos mehrere Tage benötigte. Christian Theobalt, Professor für Informatik an der Universität des Saarlandes und Forscher am Max-Planck-Institut für Informatik in Saarbrücken, ist der Ansicht, dass real wirkende Fälschungen nicht ohne Weiteres von Laien produziert werden könnten: „Programme, mit denen man Gesichter austauschen kann, sind zwar frei verfügbar. Allerdings benötigt man für wirklichkeitsgetreue Videobearbeitungen mehr als nur die entsprechende Software“. Selbst viel Aufwand könne nicht garantieren, dass am Ende eine gute Fälschung dabei herauskommt. Außerdem warnt der Informatik-Professor davor, die Technologie aufgrund dubioser Internet-Videos pauschal zu kritisieren. „Das ist ein weites und komplexes Feld. Leider hat sich für vieler Art Videobearbeitungen der Begriff „Deep Fakes“ etabliert.“ Dabei gebe es etliche Anwendungen, die uns täglich in Film und Fernsehen begegneten, gibt der Wissenschaftler zu bedenken.

Theobalt hat zusammen mit einem internationalen Forscherteam eine Technik namens „Deep Video Portrait“ entwickelt, die sich qualitativ deutlich von den Deep Fakes, die im Netz kursieren, unterscheidet und über das bloße Austauschen von Gesichtern hinausgeht. Mit seiner Videoporträt-Software könne die gesamte Mimik einer Person auf eine andere übertragen werden. Dafür nutze das Programm eine 3-D-Gesichtserkennung. Basierend auf künstlicher Intelligenz, könne diese anhand von Videos und Fotos kleinste Regungen im Gesicht einer Person detailliert aufnehmen, verkündet das Forscherteam auf seiner Webseite. Die aufgenommenen Bewegungen des Mundes, der Augenbraunen und des Kopfes könnten daraufhin auf ein anderes Gesicht übertragen werden. Diese Videoportraits sollen in der Filmindustrie zum Einsatz kommen, beispielsweise um die Synchronisation bei Filmproduktionen zu verbessern. Bewegungen des Mundes, die nicht zur Tonspur passen, ließen sich so nachträglich anpassen. Aber auch für Videokonferenzen und Streaming-Inhalte biete sich die Technik an. Die Einsatzmöglichkeiten seien vielfältig, sagt Theobalt.

Missbrauch Doch wie steht es um den Missbrauch solcher Techniken? Können bewusste Falschmeldungen dadurch noch schwerwiegendere Folgen nach sich ziehen? „Ein Stück weit ja, wenn diese Fälschungen technisch gut gemacht sind“ sagt Dr. Philipp Müller, wissenschaftlicher Mitarbeiter am Institut für Publizistik der Johannes-Gutenberg-Universität Mainz. Solche Videos wirkten echter als etwa rein textliche Falschinformationen und könnten daher noch mehr Unheil anrichten. „Wenn ich sehe, wie eine Person eine Aussage tätigt, glaube ich das natürlich eher.“ Der Medienforscher warnt allerdings auch vor Hysterie. Wenn manipulierte Videos auf unseriösen Internetseiten veröffentlicht würden, erreichten diese meist nur ein begrenztes Publikum.

Dennoch rät Müller zur Vorsicht. Sollte eine real wirkende Fälschung eines Tages in einer etablierten Nachrichtensendung wie den Tagesthemen unterkommen, könne dies das Vertrauen der Bürger in die Medien nachhaltig erschüttern. Daher sieht Müller den Journalismus in der Verantwortung, die Seriosität seiner Quellen ausreichend zu prüfen. Mit Blick auf die Zukunft spricht sich der Medienwissenschaftler dafür aus, dass Schulkinder früh lernen, mit Medien umzugehen und sie zu hinterfragen.

Fälschungen Aber auch die Informatiker hinter den „Deep Video Portraits“ versichern, sie seien sich der Gefahren des Missbrauchs ihrer Technologie bewusst. Auch aus diesem Grund sei diese nicht frei verfügbar. Heute seien manipulierte Videos noch an Bildfehlern zu erkennen. Wann Fälschungen nicht mehr mit bloßem Auge zu entlarven seien, lässt sich nach Ansicht der Wissenschaftler nicht abschätzen. Selbst dann wären jedoch Computeranwendungen der Lage, Fälschungen aufzuspüren, bekräftigt Theobalt. An solchen forensischen Programmen, die professionelle Fälschungen aufdecken können, forscht die Gruppe um den Wissenschaftler ebenfalls. So werde beispielsweise „nach fehlerhaften Lichtverhältnissen und Schattierungen in Videos gesucht, die auf Manipulationen hinweisen können“, erklärt der Informatiker der Saar-Uni. Wichtig sei vor allem das Verständnis der Grundlagen der Videobearbeitungstechniken. Das sei die Voraussetzung, um Methoden zu entwickeln, die bei Manipulationen anschlagen. Die Forschergruppe hofft, dass ihr Projekt Menschen dazu inspiriert, sich kritischer mit Videos und deren Quellen auseinanderzusetzen.

Für Internet-Nutzer ohne tiefgehende Informatik-Kenntnisse können gefälschte Videos schwer zu erkennen sein. Ein nützliches Werkzeug, um möglichen Fakes auf Youtube auf den Zahn zu fühlen, ist laut dem Computer-Magazin Chip der „YouTube Data Viewer“. Die von Amnesty International entwickelte Anwendung überprüft unter anderem den Zeitpunkt des Uploads und findet anhand der Vorschaubilder heraus, ob ein Video oder Teile davon bereits in anderen Zusammenhängen verwendet wurden. Das liefere Hinweise auf die Herkunft und damit auch die Echtheit des Materi­als. Ansonsten bleibt Internet-Nutzern, sich an den Ratschlägen der Forscher zu orientieren: kritisch bleiben und Quellen überprüfen.