Direkt zum Inhalt

Als Nutzer sind wir es inzwischen gewohnt, nicht alles, was uns im Internet begegnet, für bare Münze zu nehmen. Wir kennen die Möglichkeiten zur Bildbearbeitung mit Photoshop und hinterfragen den Wahrheitsgehalt von Texten. Aber bei Videos? Da gehen wir doch meist davon aus, dass diese echt sind. Klar, Szenen können rausgeschnitten werden. Aber ein Gesicht auf ein anderes morphen? Oder Text und Mimik einer sprechenden Person verändern, sodass diese etwas komplett Anderes sagt? Das ist unvorstellbar. Allerdings nicht mehr unmöglich. 


Was sind Deepfake-Videos?

Deepfake ist eine Technik, die mit Hilfe von künstlicher Intelligenz (KI) Videos so manipuliert, dass die Veränderungen täuschend echt wirken. Künstliche neuronale Netzwerke können die gefälschten Videos weitgehend autonom erzeugen. 

Der Begriff Deepfake entstand Ende 2017, nachdem ein Reddit-Nutzer Köpfe bekannter Schauspielerinnen auf Menschen in Pornovideos montiert hatte. Buzzfeed veröffentlichte im April 2018 ein Deepfake-Video von Barack Obama. Dieser weist im Video auf die Gefahren von Deepfakes hin und bezeichnet Donald Trump als „kompletten Volltrottel“.


Wie werden Deepfake-Videos erstellt?

Es gibt verschiedene Möglichkeiten, ein Deepfake-Video zu erstellen. Aber alle erfordern eine große Menge an Daten, mit denen KI quasi gefüttert wird, um ein Deepfake-Video zu erstellen. Die überzeugendsten Deepfakes benötigen einen leistungsstarken Computer und eine Vielzahl detaillierter Datensätze mit Audio, Video und Bildern der Person, dessen Video manipuliert werden soll. 

Das Obama-Video zeigt, wie überzeugend die visuelle Komponente des Deepfakes ist. Was vielen aber direkt auffallen wird: Die Stimme ist nicht das Obama-Original. Aber auch dieser Aspekt, der den Schwindel hinter den Videos verrät, wird in Zukunft eliminiert werden.

Wissenschaftler des Max-Planck-Instituts für Informatik arbeiten mit der Stanford University, der Princeton University und Adobe Research an einer noch besseren KI für Deepfakes. Sie wollen Videos erstellen, in denen verändert werden kann, was Personen sagen. Die künstliche Intelligenz kann Mundbewegungen verändern und im Satz vorkommende Wörter verändern, entfernen oder neue Sätze bilden. Das alles in derselben Stimmlage der Person im Video. Durch die Übereinstimmung der Stimme der Person im Video wird es für Zuschauer des Deepfake-Videos noch schwerer, zu beurteilen, ob es sich um eine Fälschung handelt. 


Die Gefahr von Deepfakes

Ende Mai tauchte auf Facebook ein Video auf, welches die Sprecherin des US-Repräsentantenhauses, Nancy Pelosi, bei einer Rede zeigte. Im Video wirkte Pelosi angetrunken – als würde sie lallen. Ein Deepfake Video, das den Ruf der Sprecherin schädigen kann. Denn nicht alle Nutzer, die das Video sehen, sind in der Lage es als Fälschung zu entlarven. 

Facebook stufte das manipulierte Video, nachdem klar war, dass es sich um einen Fake handelt, lediglich herunter. Der Algorithmus sollte es so nicht mehr so oft an Nutzer ausspielen. Zusätzlich wurde es mit einer entsprechenden Kennzeichnung versehen. Neil Potts, Director Public Policy bei Facebook, kommentierte den Fall: „Wenn in dem Video Mr. Zuckerberg statt Sprecherin Pelosi zu sehen wäre, würden wir es genauso machen.“

Was von Potts vor einigen Wochen noch als Wenn-dann-Aussage getätigt wurde, ist inzwischen eingetreten: Auch von Mark Zuckerberg wurde ein Deepfake-Video veröffentlicht.  


In dem Video spricht Zuckerberg von der Macht und Kontrolle, die er über Menschen durch ihre gestohlenen Daten bekommt. Zudem ist es so aufbereitet, als würde er ein TV-Statement abgeben. Allerdings hat weder der Sender das Video produziert und ausgestrahlt, noch hat Zuckerberg diese Dinge gesagt. Wie beim Obama-Video können User, die Zuckerbergs Stimme kennen, schnell identifizieren, dass das Video ein Deepfake ist. Aber eben nicht jeder kennt Zuckerbergs Stimme. 

Facebook hielt sich trotz der verwerflichen Aussagen im manipulierten Video an das Statement zum Pelosi-Fall und löschte auch das Zuckerberg Deepfake-Video nicht. Es wurde lediglich im Algorithmus heruntergestuft. 

Deepfakes können gefährliche Auswirkungen haben. Sie können den Ruf von Personen schädigen und die Meinungsbildung der Nutzer beeinflussen. Vor allem, wenn Aussagen von berühmten Persönlichkeiten nur minimal verändert werden, sodass sie nicht schon auf den ersten Blick absurd wirken. 

Je weiter die Forschung Deepfake-Techniken entwickelt, desto gefährlicher werden die Resultate. Noch kann durch eine veränderte Stimme oder unnatürliches Blinzeln erkannt werden, ob ein Video manipuliert wurde. Sobald diese Schönheitsfehler behoben wurden, wird es zumindest mit reinem Menschenverstand nicht mehr möglich sein, Deepfake-Videos von echten zu Unterscheiden. Nur für Softwares und Algorithmen kann dies noch möglich sein. Deepfake-Softwares hinterlassen in der Regel eine Art Kennzeichnung auf der Videodatei, wenn sie manipuliert wurde. Diese Artefakte kann ein Algorithmus auslesen. 


Fazit

Im Umgang mit Deepfake-Videos muss es strenge Regeln geben. Vor allem für die sozialen Netzwerke und die Verbreitung von Deepfakes. Mit der Technik müssen nicht ausschließlich politisch heikle Videos produziert werden. Auch für Künstler oder Comedians ist die Technik interessant. Sobald aber Deepfake-Videos verbreitet werden, die den Ruf oder das Ansehen einer Person oder Organisation schädigen, müssen Maßnahmen getroffen werden, um den Schaden zu minimieren. Eine Kennzeichnungspflicht von Deepfakes wäre ein Anfang.


Wenn Ihnen der Artikel gefallen hat und Ihrer Meinung nach auch für andere interessant ist, teilen Sie ihn gern auf einem sozialen Netzwerk. Für ein monatliches Update zu unseren Artikeln abonnieren Sie unseren Newsletter mit den neusten Informationen.
 

Über den Autor

Julia Bellan

Julia Bellan studierte Medienwirtschaft und Journalismus an der Jade Hochschule Wilhelmshaven und entdeckte dort ihre Leidenschaft für das Schreiben. Als Redakteurin bei Pictima setzt sie alles daran, die Welt der Video-Branche aus allen Blickwinkeln zu betrachten und ihre Entdeckungen in unterhaltendem, aber informativem Content aufzubereiten.

Diese Artikel könnten Sie auch interessieren

pictima branded videos teaser

Branded Videos: Erst Mensch, dann Marke

pictima live videos teaser

Live-Videos – Boost für die Glaubwürdigkeit von Marken

Warum Sie einen Sprecher buchen sollten Teaser | Pictima

Warum Sie einen professionellen Sprecher für Ihr Video buchen sollten