Fake News

Wenn wir den Medien nicht mehr trauen können

von | 9. Dezember 2022

Fake oder Realität – Deepfakes werden zunehmend realistischer. Kann man den Bildern und Videos noch trauen?

Am 16. März 2022 kursierte ein Video im Netz, in dem der ukrainische Präsident Wolodymyr Selenskyj dem ukrainischen Militär die Kapitulation gegenüber Russland befiehlt. Schnell entlarvten nicht nur Experten das Video als eine Fälschung, sondern auch Selensky selbst.

Seit einiger Zeit warnen Experten davor, dass sogenannte Deepfakes eingesetzt werden, um Einfluss auf die Politik zu nehmen. Fast jeder ist heutzutage  in der Lage, solche Videos zu erstellen. Die Technik tauscht mittels einer KI beispielsweise ein Gesicht durch das einer anderen Person digital aus. Im Rahmen von Deepfakes können Personen Wörter in den Mund gelegt werden, die sie so nie gesagt haben. Über das Internet, insbesondere Soziale Medien, kann sich die öffentliche Meinung innerhalb kürzester Zeit von solchen Deepfakes beeinflussen lassen, denn mit der Zeit werden diese zunehmend realistischer. Nicht die Technologie an sich ist schlecht, sondern die Tatsache, dass wir sie für Manipulationen missbrauchen. Gerade in Bezug auf den Ukrainekrieg ist es wichtig, „gefakte“ Videos von der Realität unterscheiden zu können. Geht das überhaupt noch? Können wir den Videos oder Bildern in Zukunft noch trauen?

Welche Gefahren von Deepfakes ausgehen, erklärt Dirk Labudde, IT- Forensiker an der Hochschule Mittweida, gegenüber medienMITTTWEIDA in einem Interview.

Was sind Deepfakes? 

Dirk Labudde: Deepfake ist ein zusammengesetztes Wort aus „Deep“, was von dem Begriff Deeplearning kommt, eine KI-Technik mit neuronalen Netzen und „Fake“, da mit der Technik Dinge in Videos dargestellt werden können, die eigentlich eine Fälschung sind. Grundsätzlich bezeichnet man mit Deepfakes eine KI-Technik mit neuronalen Netzen, wo Masken von Gesichtern trainiert werden, die dann in dem Video eingesetzt werden. Diesem Video kann man auch noch eigene Texte, eigene Mimik und eigene Gestik geben. Das ist sozusagen ein bisschen der Gimmick bei diesen Deepfakes. Zusammengefasst: mit Deepfakes produziere ich Fake-Videos, die zum Teil schon da waren, dass ich nur das Gesicht durch eine andere Person ersetzen muss. Das ist die wohl bekannteste Variation von Deepfakes, das sogenannte “Face-Swapping”. Ich kann das Gleiche, aber auch mit der Stimme, der Körperhaltung oder der Pose machen.

Arten von Deepfakes

Face-Swapping: Ein Gesicht wird durch das einer anderen Person ausgetauscht und in einen anderen Kontext gesetzt.

Voice-Swapping: Die Stimme wird so verändert, dass sie einer bestimmten Person gleicht.

Body-Puppetry: Die Körperhaltung wird in Echtzeit imitiert.

Wo werden Deepfakes eingesetzt?  

Dirk Labudde: Die schöne Sache ist, dass ich Deepfakes beispielsweise bei Animationstechniken nutzen kann, die zum Beispiel beim Film oder Ähnlichem Verwendung finden. Da ist es wirklich von Vorteil, dass ich Dinge produzieren kann mithilfe dieser neuen Technologien. 

Die andere Seite ist, dass ich damit eine scheinbare Realität abbilde, die es nicht gibt. Jetzt denken wir mal in dem politischen Rahmen, in dem Rahmen einer Demokratie, nämlich die Verbreitung solcher Deepfake-Videos, die etwas darstellen, was es so nicht gegeben hat. Oder wenn wir jetzt an den Ukrainekrieg denken, da gab es schon die Vermutung, dass es den einen oder anderen Deepfake gab.

Wie allgegenwärtig sind Deepfakes? 

Dirk Labudde: Bleiben wir mal in dem Feld des Ukrainekrieges. Ich kann Szenen darstellen, die es so nicht gegeben hat. Demzufolge habe ich die zweite Schiene der Kriegsführung, das heißt die ganze Propaganda. Also kann ich meine Gegner mit etwas konfrontieren, was es so nie gegeben hat und versuche, damit das Kriegsgeschehen zu beeinflussen. 

Hierbei muss man vorsichtig sein: Die Anrufe des vermeintlichen Vitali Klitschko, der Bürgermeister von Kiew, der mit mindestens fünf Bürgermeistern aus verschiedenen Städten Europas telefonierte und über die Rolle der männlichen Migranten in den einzelnen Ländern diskutiert hat. Das war zwar ein Fake, aber kein Deepfake, da es nicht mit der Deepfake-Technologie erstellt wurde. Aber man hat es erst vermutet, weil die Realtime Anwendung auch schon mit der Deepfake-Technologie zu erstellen ist.

Welche Gefahren gehen von Deepfakes aus? 

Dirk Labudde: Es wird bei Deepfakes eine Szene dargestellt, die es so in der Realität nicht gegeben hat, indem ich die Stimme, das Gesicht und die Mimik trainiere und in ein Deepfake-Video packe. Das ist natürlich die große Gefahr, dass ich dem Zuschauer oder dem Zuhörer etwas suggeriere und möglicherweise in seine Meinungsbildung eingreife, die nichts mit der eigentlichen Realität und nichts mit der Person, die im Hintergrund steht, zu tun hat.

Anmerkung der Redaktion: Die größte Gefahr der Deepfakes ist die Verbreitung von Desinformationen. Durch die Veröffentlichung der falsch Informationen wird die Öffentlichkeit in die irregeführt und kann somit manipuliert werden. Russland zum Beispiel demonstriert schon  jetzt ihre Fähigkeiten in der Deepfaketechnik. Desinformationen können von Lappalien bis hin zu weitreichenden Folgen, wie einer Kriegserklärung, reichen. Das große Problem von Deepfakes ist , dass erstens die  Bevölkerung nicht ausreichend über die Gefahren von Deepfakes informiert ist und leichtgläubig auf deren Inhalten hereinfällt. Und zweitens die Technologie sehr rasant fortschreitet, vor ein paar Jahren konnte man noch als Laie Deepfakes gut als Fake erkennen. Heute ist es für Laien sehr schwer geworden.

Deepfakes können zudem zu Rufschädigungen einzelner Personen oder Unternehmen führen. Bereits eine kleine gefakte Aussage eines Politikers kann sein Image zerstören. 

Hinzu kommt: Wenn man sich einmal mit dem Thema Deepfake beschäftigt hat, kann das Vertrauen in die Medien schwinden. Die Bevölkerung ist nicht mehr in der Lage, zwischen Falschinformationen und der Wahrheit unterscheiden zu können. Die Folge: Vertrauen in den Medien schwindet. 

Deepfakes können auch als Vorwand dienen. Wenn beispielsweise ein Politiker seine tatsächlich geäußerte Aussagen zurücknehmen will, so könne er auch behaupten, dass es sich um ein Deepfake handele.

Wer ist von solchen Deepfakes gefährdet?  

Dirk Labudde: Wir als demokratische Gemeinschaft sind das Opfer. Wenn ich ein Video drehe über ein nicht stattgefundenes Verbrechen, oder ich manipuliere meine Dashcam im Auto, oder ich manipuliere ein Bild. Das heißt, ich mische mich dann mit Falschmeldungen, also mit Fake, in die Meinungsbildung ein. Das ist eine Gefahr für alle, die sich unabhängig, die sich freiwillig in den Prozess der Meinungsbildung begeben haben.

Pornografie momentan noch größter Sektor

Über 95 Prozent der Deepfakes sind von pornografischer Natur. Vor allem Gesichter von weiblichen Prominenten tauchen in Pornos auf, in denen sie natürlich nie mitgespielt haben. Die Gesichter der echten Darsteller werden mittels Face-Swapping durch die Gesichter der Prominenten ausgetauscht. Aber auch unbekannte weibliche Personen mussten schon solch eine Erfahrung machen, wie zum Beispiel Noelle Martin. Mittlerweile  gibt es  Plattformen, die erkennen können, ob man in einem Porno zu sehen ist.

Wie lang muss das Trainingsmaterial sein, um ein Deepfake – Video zu erstellen? 

Dirk Labudde: Der Bürgermeister von Kiew hat ganz viele öffentliche Auftritte und mit diesem Material trainiere ich auch. Das Trainingsmaterial ist der einzige limitierende Faktor, wohingegen die neuronalen Netze frei verfügbar sind. Diese kann ich nämlich trainieren –also auch die Technik – das Gesicht des einen wirklich in die Aktivität des anderen mit der richtigen Mimik und Gestik zu den passenden Worten, die er sagt, reinzulegen.  

Von den meisten Personen gibt es nicht so viel Aufzeichnungsmaterial, dass ich hinreichend trainieren kann, denn man benötigt von allen Seiten des Gesichtes Trainingsmaterial. Das heißt von der einen Seite, der anderen Seite, frontal, von oben und auch von unten des Gesichtes. Dann ist es kein Problem und ist in wenigen Stunden fertig, sodass man dann alles einer x-beliebigen Person in den Mund legen kann.

Wer kann Deepfakes erstellen, was benötigt man dazu?  Muss man einen Experten oder bestimmtes Equipment haben?

Dirk Labudde: Mit einem normalen, gesunden Informatikverstand, ist es für jeden möglich, Deepfakes zu erstellen. Ein bisschen Grundvoraussetzung muss man haben, damit man dieses Framework versteht. Das ist ein wenig wie programmieren. Aber es gibt natürlich schon vortrainierte Modelle. Das Wort Experte würde ich nicht sagen. Jemand, mit Grundwissen in der Informatik, im Umgang mit den unterschiedlichen Frameworks wäre gar nicht so verkehrt. Bleiben wir mal in Mittweida. Ich denke, jeder Medieninformatik Student kann es, jeder Informatik Student kann es und auch jeder, der Informatik im Nebenfach hat. Natürlich kann man sich auch sehr viel selbst anlernen.

Deepfakes erstellen mit Apps

Es gibt schon eine Vielzahl an Apps, mit denen man Deepfakes ganz einfach auf seinem Smartphone erstellen kann. Damit können Nutzer innerhalb von wenigen Sekunden beliebige Gesichter in beliebige Videoclips montieren.

 

Es scheint, dass viele Menschen in der Lage sind, solche Deepfakes zu erstellen und wie überzeugend sind diese tatsächlich?

Dirk Labudde: Die Technik hat sich unglaublich weiterentwickelt. Ich denke, dass wir langsam beim normalen Betrachten nicht mehr sofort ein Fake erkennen können. Vor drei oder vier Jahren hat man noch gesehen, dass die Augen schlecht abgebildet wurden, oder dass die Zähne als große weiße Leiste dargestellt wurden. Das alles bekommt man aber jetzt super hin. Auch die Taktung von Sprache, Mimik und Gestik ist bereits sehr gut. Ich denke, der ungeübte oder der normale Betrachter kann Deepfakes nicht mehr richtig von realen Videos unterscheiden. 

Gibt es Tipps, wie man solche Deepfakes erkennen kann? 

Dirk Labudde: Als Laie ist es schwierig. Man muss den Kontext hinterfragen. Jetzt komme ich nochmal zu dem nicht ganz treffenden Beispiel von Vitali Klitschko und unserer Oberbürgermeisterin von Berlin, aber auch Madrid und Wien haben dasselbe erfahren. Der Kontext, nicht die Worte führten dazu, dass der ein oder andere mal schneller, mal langsamer erkannte, dass es kein regulärer Anruf war. 

Wenn wir visuell diesen Kanal nicht mehr richtig differenzieren können, dann müssen wir uns fragen, ob der Kontext der richtige ist. Und dann immer mit gesundem Menschenverstand betrachten, passen Mimik oder Gestik zu dem Gesagten und der ganzen Situation.

Besteht bereits ein Bewusstsein in der Gemeinschaft?

Dirk Labudde: Nein, das gibt es aus meiner Sicht noch lange nicht. Wir müssen wirklich an der Sensibilisierung aller Teilnehmer arbeiten. Das heißt, so wie es jetzt für Hasskommentare ist, müsste es auch eine Meldestelle geben für mögliche Fake News. Es ist noch viel zu tun, aber es darf nicht zu einer Mehrbelastung für uns alle werden. Niemand hat Lust, eine Zeitung zu lesen, wo ich jedes Mal fragen muss, ob das jetzt eine richtige Meldung oder eine Falschmeldung ist. Dann habe ich auch kein Interesse mehr, eine Zeitung zu lesen. Zudem muss es automatisch überprüfbar werden .Es gibt auch verschiedene Ansätze, um Deepfakes zu erkennen, zum Beispiel die Möglichkeit eines nicht sichtbaren Wasserzeichens. Wenn jetzt aber dieses Wasserzeichen zerstört ist, dann könnte das Bild oder das Video manipuliert sein. Da muss man darüber nachdenken, wie weit man das automatisieren kann. Die Diskussion haben wir schon auf EU-Ebene. Aber da müssen wir gemeinsam daran arbeiten und müssen dem Bürger vieles abnehmen, nicht die Meinungsbildung, sondern dass man verlässliche Informationen bekommt und auf der Basis dann seine Meinung bilden kann.

 

Welche weiteren Fortschritte in der Deepfake-Technik erwarten Sie in nächster Zeit? 

Dirk Labudde: Was jetzt gerade technisch passiert, ist, dass wir jetzt schon Emotionen nachbilden, die immer realistischer werden. Das ist gerade der Trend. Ich denke, dass dann Videos entstehen, die ich überhaupt nicht mehr unterscheiden kann. Das ist meine böse Vermutung. Dann kommt natürlich noch die Körperhaltung hinzu und wenn ich noch etwas mit der richtigen Körperhaltung versehe, wird der Mensch komplett abgebildet. So wird es noch schwieriger für uns, den Fake zu erkennen. 

Können dann noch Videos oder Bilder in Zukunft als Beweismittel gelten?

Dirk Labudde: Sie müssen. Wir müssen uns nur Gedanken darüber machen. Auch beim Strafprozess nutzt der eine oder andere schon Photoshop, um die Schramme vom Autounfall wegzuretuschieren. Da muss jetzt auch ein Bewusstsein geschaffen werden, dass jedes Bild und jedes Video, welches eingereicht wird, auch geprüft wird. Und genau so müssen auch die digitalen Daten geprüft werden, ob diese auch echt sind, die wir hinterlegen. Es wird auch schon diskutiert, ob man Authentifizierungsmechanismen an so etwas stellen muss. Ja, die Entwicklung muss weitergehen, damit wir auf diesem Gebiet auch ruhiger schlafen können.

Klar ist, dass die Technologie in der Verbreitung von Desinformationen noch vereinzelt ist, aber sie wird stetig besser und kann somit auch eine größere Gefahr werden. Im Ukrainekrieg zum Beispiel kursieren schon eine Vielzahl an gefälschten Videos. Diese wurden schnell von Experten erkannt. Zwar fängt die Regierung vermehrt an, sich mit der Thematik zu befassen, allerdings reicht das noch nicht aus. Die Qualität von Deepfakes ist bereits jetzt hoch genug, um viele Menschen schon heute manipulieren zu können.

Text, Titelbild Foto: Lara Fandrey
<h3>Lara Fandrey</h3>

Lara Fandrey

studiert derzeit Medienmanagement an der Hochschule Mittweida. Bei medienMITTWEIDA engagiert sie sich seit dem Somersemester 2024 und leitet das Ressort Campus.