Skip to content Skip to footer

Im Kampf um verlässliche Informationen: Deepfakes bedrohen Demokratie, Datenschutz und staatliche Sicherheit

Eine Technologie, die entwickelt wurde, um Gesichter prominenter Menschen in pornografische Bilder und Filme einzufügen, ist mittlerweile zu einer Gefahr für bestehende Demokratien geworden. Die Rede ist von sogenannten Deepfakes. Mit Hilfe der Deep-Learning-Technologie werden Video- und Audiodateien manipuliert und im Internet in Umlauf gebracht, um Desinformation zu verbreiten. Sowohl Regierungen als auch die Bevölkerung sind zunehmend besorgt über das Potenzial dieser Technologie, vor allem in einer Zeit, in der die Viralität sozialer Medien die rasante Verbreitung von Deepfakes ermöglicht – mit möglicherweise gravierenden Auswirkungen auf politische Entscheidungen und Prozesse. Ein jüngstes Beispiel dafür findet sich im Krieg zwischen Russland und der Ukraine. Es zeigt, wie gefährlich Deepfake-Videos für die öffentliche Meinugnsbildung und die dahinter stehenden Demokratien sein können.

Was sind Deepfakes?

Der Name „Deepfake“ leitet sich aus dem sogenannten Deep Learning ab, das eine Form des Machine Learnings ist. Das Konzept des „Fakes“ stammt ursprünglich aus der Filmproduktion, jedoch erforderte die Erstellung dieser ein Expertenverständnis im Bereich CGI und Schnitttechnik. Gefälschte Bilder und manipulierte Filmsequenzen gibt es nicht erst, seit es künstliche Intelligenz gibt. Wer überzeugende Fälschungen erstellen wollte, benötigte dafür allerdings weitreichendes Fachwissen. Im Vergleich dazu ist die Technologie der Deepfakes für Nutzer:innen weitaus zugänglicher. Im Herbst 2017 hatte zum ersten Mal ein Nutzer der Plattform Reddit die sogenannte Deep-Learning-Technologie dazu genutzt, um sexuelle Videos von Prominenten zu verbreiten. Dafür tauschte er Gesichter von Pornodarsteller:innen mit denen von Promis aus. Kurz darauf folgte die Veröffentlichung einer neuen Software mit dem Namen „FakeApp“, die von einem Reddit-Nutzer namens deepfake entwickelt wurde.

Mit dieser Software kann man bereits als Programmierer:in auf Anfängerlevel das Gesicht einer Person auf eine andere übertragen. Um den Austausch zu ermöglichen, werden Algorithmen angewandt, die mit vielen Bild- oder Videodaten gefüttert werden. Dabei gilt: Je mehr Material, desto realistischer das Ergebnis. Das neuronale Netz des Deepfake-Codes analysiert dann die großen Datenmengen, um zu lernen, Mimik, Stimme und Tonfall einer Person zu imitieren. Füttert man den Algorithmus beispielsweise mit Bildern von einer bestimmten Person, lernt das künstliche neuronale Netz, nur diese Person zu fokussieren und Hintergründe zu ignorieren. Dadurch können Gesichter selbstständig erzeugt werden, selbst wenn sie in Bewegung sind.

Das Risiko, Opfer von Deepfakes zu werden, ist also vor allem für öffentliche Personen, von denen viel Bildmaterial existiert, sehr hoch. Vor allem existieren riesige Mengen an Video- und Bildmaterial von politischen Akteur:innen, kostenlos und zu jeder Zeit verfügbar. Dieses Material ermöglicht es Nutzer:innen, gefälschte, aber realistische Videos von Personen des öffentlichen Lebens zu erstellen, die dann online geteilt werden können, ohne dass sie von der Realität eindeutig zu unterscheiden sind. Fake News und Desinformation bedienen oftmals Ängste vor tatsächlichen oder wahrgenommenen Bedrohungen und können so beispielsweise Konflikte verschärfen.

Deefakes in Zeiten von Konflikt

„Das erste Opfer eines jeden Krieges ist die Wahrheit“, lautet ein geflügeltes Wort, das neben dem US-Politiker Hiram Johnson auch noch anderen zugeschrieben wurde. Das gilt umso mehr, seit zuerst die modernen Massenmedien und dann digitale Kanäle eine immer schnellere Verbreitung und ständige Verfügbarkeit von Informationen ermöglichten. Angesichts einer stetig steigenden Informationsfülle und universell zugänglicher Verbreitungskanäle wie etwa Twitter wurde es ohnehin zunehmend schwieriger, Fakten von Fiktion zu unterscheiden. Deepfakes fügten dieser Mischung eine weitere, einfach zu nutzende Manipulationsmöglichkeit hinzu. Obwohl es Fake News schon seit hunderten von Jahren gibt, werden die Auswirkungen ihrer Verbreitung immer gravierender, da sie immer leichter produziert und immer schneller an eine immer größere Zahl von Empfängern verbreitet werden können. Nötig dafür sind eigentlich nur ein Smartphone und der Zugang zu Social Media-Plattformen. Dies wirft neue Probleme und Fragen auf, insbesondere für Regierungen und Politiker.

Auch im aktuellen Konflikt Ukraine-Russland sind bereits manipulierte Inhalte aufgetreten: Ein Video, in dem der ukrainische Präsident Selenskyj angeblich zur Kapitulation seiner Streitkräfte aufruft, ist ein Deepfake. Ursprünglich wurde das Video über die gehackte Website des ukrainischen Nachrichtensenders Ukraine 24 verbreitet. Die Täter sind unbekannt. Auch von Russlands Präsident Vladimir Putin verbreitet sich ein Deepfake-Video über Twitter in dem er den Krieg zwischen seinem Land und der Ukraine für beendet erklärt. Deepfakes stellen mittlerweile also nicht mehr nur eine Bedrohung für Einzelpersonen dar, sondern besitzen das Potenzial, Gesellschaft, Politik und komplexe Prozesse auf vielfältige Weise zu beeinflussen und im schlimmsten Fall Schaden anzurichten. Diese Schäden können u. a. die Verzerrung des demokratischen Diskurses oder des öffentlichen Vertrauens in Institutionen beinhalten sowie militärische Operationen oder Wirtschaft beeinträchtigen.

Wie wirkt man Deepfakes entgegen?

Die Besorgnis über die Produktion und Verbreitung gefälschter Videos lässt die Rufe nach Gegenmaßnahmen lauter werden. Die Bundesregierung warnt vor der Verbreitung von manipulierten Medien, die im schlimmsten Fall zu einer Diskreditierung und Verletzung von Persönlichkeitsrechten einzelner Personen bzw. zu der Verbreitung von Desinformationen und Fake News führen können. Das Portal Journalistikon stellt einen Leitfaden zur Erkennung von Deepfakes zur Verfügung. An sich ist das bloße Erzeugen von Deepfakes in Deutschland nicht illegal,  solange dabei keine Verstöße gegen das Persönlichkeits- oder Urheberrecht begangen werden. Zudem arbeitet die Forschung vermehrt an der Entwicklung von Erkennungstechniken, um Inhalte zu überprüfen und zu authentifizieren, damit die potenziellen negativen Auswirkungen dieser Produktionen in Zukunft minimiert werden können.

Plattformen wie Meta, Reddit und Twitter haben Deepfake-Material jedoch bereits verboten, um der Verbreitung von manipulierten Videos und polarisierenden Inhalten, vor allem im Vorfeld von Wahlen und anderen politischen Richtungsentscheidungen entgegenzuwirken. Jedoch schaffen es die Inhalte immer wieder auf die Plattformen. Zwar hat Meta das Video von Selenskyj inzwischen gelöscht, aber erst nachdem es auf der Plattform zuvor bereits viral ging. Zudem wird davon ausgegangen, dass es sich nicht um das letzte Video dieser Natur handeln wird. Obwohl es mehrere rechtliche und technische Ansätze gibt, scheint es leider noch kein probates Mittel zu geben, um das Problem umfassend in den Griff zu bekommen.

Fazit

Digitale Imitationen werden immer realistischer und überzeugender. Deep-Fake-Technologien können den Opfern nicht nur psychisch schaden, sondern auch zu schwersten Rufschädigungen und in der Konsequenz zu massiven beruflichen und wirtschaftlichen Folgen führen. Je nach den Umständen, dem Zeitpunkt und der Verbreitung der Fälschung können die Auswirkungen verheerend sein. Der Konflikt zwischen Russland und der Ukraine ist ein typisches Beispiel für eine Situation, in der viele Akteure ein Interesse daran haben, die öffentliche Meinung zu manipulieren und dafür die Macht von Deepfakes zu nutzen. Auch wenn Deepfakes auf den meisten Websites mittlerweile verboten sind, schaffen sie es doch immer wieder viral zu gehen. Deepfakes und die künstliche Intelligenz dahinter sollten also ernst genommen werden, vor allem weil es noch kein perfektes Lösungsmittel für ihre Bekämpfung gibt. Mediennutzer:innen stehen in Zukunft mehr denn je vor der Herausforderung, digital verbreitete Bilder und Videos kritisch zu betrachten und ihre Kompetenz im Umgang mit Medieninhalten zu schärfen, um Original und (Deep)fake zu unterscheiden.