#TalkNerdyToMe – Deepfakes: Täuschend echt

#TalkNerdyToMe – Deepfakes: Täuschend echt

Die Pandemie und die Bundestagswahl sind noch in vollem Gange, als ein Lachen Mitte 2021 durch Deutschland geht. Dieses Lachen gehört Armin Laschet, Ministerpräsident von NRW und Bundeskanzlerkandidat 2021. Während der Rede von Bundespräsident Frank-Walter Steinmeier an die Hochwasseropfer von Ahrweiler, wird Laschet im Hintergrund dabei aufgenommen, wie er herzlich lacht. Ein Skandal. Laschet wird anschließend Pietätlosigkeit und fehlende Krisenkompetenz vorgeworfen, seine Beliebtheitswerte sinken. Für den Vorfall entschuldigt er sich, aber was weder Deutschland noch Laschet zu dem Zeitpunkt wissen – dieses Lachen sollte unter anderem den Wahlverlust für den CDU-Kandidat und seine Partei bedeuten. Aber was wäre, wenn Laschets Fauxpas in der Realität gar nicht stattgefunden hätte? Wäre es überhaupt möglich seinen Gesichtsausdruck in dem Video zu manipulieren, um die Meinung der Wähler:innen negativ zu beeinflussen? Die Antwort lautet: Ja – Und zwar mit Hilfe von Deepfakes.

 

Wie funktionieren Deepfakes?

Deepfakes sind gefälschte Videos, die mithilfe künstlicher Intelligenz beispielsweise Gesichter von Personen in bestehenden Videosequenzen austauschen, Menschen fremde Texte sprechen lassen oder Bewegungsmuster verändern. Aber wie funktioniert die Technologie hinter Deepfakes eigentlich genau? Der Name „Deepfake“ basiert auf dem sogenannten Deep Learning, welches eine Form des Machine Learnings ist. Das Konzept des „Fakes“ stammt ursprünglich aus der Filmproduktion, jedoch erforderte die Erstellung dieser ein Expertenverständnis im Bereich CGI und Schnitttechnik.

Im Vergleich dazu ist die Technologie der Deepfakes für Nutzer:innen weitaus zugänglicher. Im Herbst 2017 hatte zum ersten Mal ein Nutzer der Plattform Reddit die sogenannte Deep-Learning-Technologie dazu genutzt, um nicht einvernehmliche sexuelle Videos von Prominenten zu verbreiten. Dafür tauschte er Gesichter von Pornodarsteller:innen mit denen von Promis aus. Kurz darauf folgte die Veröffentlichung einer neuen Software mit dem Namen „FakeApp“, welche von einem Reddit-Nutzer namens deepfake entwickelt wurde.

Mit dieser Software kann man bereits als Programmierer:in auf Amateurniveau viel einfacher das Gesicht einer Person auf eine andere übertragen. Um den Austausch zu ermöglichen, werden Algorithmen angewandt, die mit vielen Bild- oder Videodaten gefüttert werden. Dabei gilt: Je mehr Material, desto realistischer das Ergebnis. Das neuronale Netz des Deepfake-Codes analysiert dann die großen Datenmengen, um zu lernen, Mimik, Stimme und Tonfall einer Person zu imitieren. Füttert man den Algorithmus beispielsweise mit Bildern von Armin Laschet, lernt das künstliche neuronale Netz, nur Armin Laschet zu fokussieren und Hintergründe zu ignorieren. Es lernt also wie Armin Laschet aussieht und kann sein Gesicht dann selbstständig erzeugen, selbst wenn er in Bewegung ist.

Um Gesichter zu tauschen, müssen hingegen zwei Köpfe erkannt werden. Einmal Gesicht A, das im Originalmaterial vorkommt, und Gesicht B, mit dem der Austausch stattfinden soll. Der Algorithmus fügt schließlich nicht Gesicht A in das Video ein, sondern das Gesicht B, das dort eigentlich nicht hingehört. So ist es möglich beispielsweise Tom Cruise beim Gitarre spielen auf der Plattform Tik Tok zu sehen, ohne dass der echte Schauspieler die App in Wirklichkeit überhaupt nutzt.

 

Fake to Face: Wie gefährlich sind Deepfakes

Bilder sagen meist mehr als tausend Worte – ein Video sogar noch mehr. Innerhalb der letzten vier Jahre kann man unzählige Beispiele finden, die zeigen, dass Deepfake-Videos vermehrt kreiert werden. Die Filmindustrie profitiert in vielerlei Hinsicht von der Deepfake-Technologie. Sie kann zum Beispiel dabei helfen, digitale Stimmen für Schauspieler:innen zu erstellen, die deren Stimmen aufgrund von Krankheiten oder Erschöpfung verloren haben, oder Filmmaterial zu aktualisieren, statt es neu drehen zu müssen.

Jedoch können Deepfakes, vor allem in politischen Kontexten, auch eine echte Gefahr darstellen. Im Internet existieren riesige Mengen an Filmmaterial von politischen Akteur:innen, kostenlos und zu jeder Zeit verfügbar. Dieses Material ermöglicht es Nutzer:innen, gefälschte, aber realistische Videos von Personen des öffentlichen Lebens zu erstellen, die dann online geteilt werden können, ohne dass sie von echtem Filmmaterial eindeutig zu unterscheiden sind.

Das Risiko, Opfer von Deepfakes zu werden, ist also vor allem für öffentliche Personen und ihre Reputation sehr hoch. Ein von Buzzfeed veröffentliches Video zeigt den ehemaligen US-Präsidenten Barack Obama scheinbar aus dem Oval Office, wie er direkt in eine Kamera spricht. In den ersten 35 Sekunden ist nur Obamas Gesicht zu sehen. Nach ein paar leicht untypischen Aussagen, äußert er: „Präsident Trump ist ein totaler Vollidiot.“ Nach einer kurzen Pause fährt er fort mit: „Wissen Sie, ich würde so etwas nie sagen, zumindest nicht in einer öffentlichen Ansprache. Aber jemand anderes würde es tun. Jemand wie Jordan Peele.“ Der Bildschirm teilt sich und zeigt Obama auf der linken Seite, während auf der rechten Seite der US-Schauspieler Jordan Peele zu sehen ist. Im Vordergrund des Videos steht die Warnung vor den Gefahren, die von Deepfakes ausgehen können.

Die Bundesregierung warnt mittlerweile auch vor der Verbreitung von manipulierten Medien, die im schlimmsten Fall zu einer Diskreditierung und Verletzung von Persönlichkeitsrechten einzelner Personen bzw. zu der Verbreitung von Desinformationen und Fake News führen können. Deepfakes und die künstliche Intelligenz dahinter sollten also ernst genommen und eine gewisse Medienkompetenz von Nutzer:innen entwickelt werden, um Fake von Realität zu unterscheiden.

An sich ist das bloße Erzeugen von Deepfakes in Deutschland nicht illegal, solange dabei keine Verstöße gegen das Persönlichkeitsrecht oder Urheberrecht begangen werden. Plattformen wie Facebook, Reddit und Twitter haben Deepfake-Material jedoch bereits verboten, um der Verbreitung von manipulierten Videos und polarisierenden Inhalten, vor allem in Zeiten von politischen Wahlen, entgegenzuwirken.

 

Fazit

Obwohl es sich im Fall von Armin Laschet tatsächlich nicht um einen Deepfake handelt, machen es neue digitale Technologien nichtsdestotrotz immer schwieriger, zwischen echten und gefälschten Inhalten zu unterscheiden. Vor allem für die Verbreitung von Desinformationen und Fake News können Deepfakes missbraucht werden, wobei nicht nur einzelne Personen Schaden nehmen, sondern auch die Meinungen von vielen Menschen in kürzester Zeit beeinflusst werden kann.

Welche Rolle politische Deepfakes im öffentlichen Diskurs in Zukunft spielen, hängt letztlich davon ab, wie Akteur:innen und Plattformen mit ihnen umgehen. Auch wenn aus diesen Gründen Deepfakes auf den meisten Websites mittlerweile verboten sind, lassen sie sich trotzdem leicht finden und erstellen. Mediennutzer:innen stehen in Zukunft also vor der Herausforderung, digital verbreitete Bilder und Videos mit kritischer Reflexion zu betrachten und sich die Frage zu stellen: Handelt es sich um ein Original oder doch um einen Deepfake?

 

Du outest dich außerdem als Nerd, wenn du …

…das Fan-Deepfake von Luke Skywalkers Cameo aka dem jungen Mark Hamill im Finale der zweiten Staffel von ‚The Mandalorian‘ für überzeugender hältst, als seine künstliche CGI-Verjüngung in der Originalszene.

 

 

Picture Credit: © Sammy Williams