So erkennen Sie Deepfake-Videos, um Desinformation zu verhindern

Da Deepfakes immer ausgefeilter werden, ist es schwieriger denn je, den Unterschied zwischen Echtheit und Unwahrheit zu erkennen. Heute erzählen wir Ihnen von einigen verräterischen Anzeichen, die Ihnen helfen, Deepfake-Videos zu erkennen. Mit diesen Tools in der Hand hoffen wir, dass Sie kein unwissendes Opfer von Fake News und Verschwörungstheorien werden. Wir geben Ihnen auch eine Vorstellung von der Deepfake-Technologie, wie sie funktioniert und wie sie von Propagandisten und Verschwörungstheoretikern verwendet wird, um Desinformationen zu verbreiten und Internetnutzer dazu zu bringen, Unwahrheiten zu glauben.

Erkennen Sie Deepfake-Videos, um Desinformation und Verschwörungstheorien zu verhindern

Derzeit werden Deepfakes hauptsächlich von Amateur-Hobbyisten verwendet, um die Gesichter von Prominenten in Videos für Erwachsene zu verwandeln, und von unappetitlichen politischen Elementen, um gefälschte Nachrichten zu verbreiten. Experten sind jedoch besorgt über noch gefährlichere Anwendungen der Technologie in nicht allzu ferner Zukunft. Deshalb listen wir hier einige der Möglichkeiten auf, wie Sie Deepfake-Videos erkennen können, um zu verhindern, dass Sie Opfer böswilliger Desinformation werden.

Was sind Deepfake-Videos?

Deepfakes, eine Kombination aus den Begriffen „Deep Learning“ und „Fake“, beziehen sich auf manipulierte Medien, die künstliche Intelligenz oder Deep-Learning-Techniken verwenden, um Audio- oder Videodateien zu erstellen, die die Realität verzerren. Die Technologie verwendet künstliche neuronale Netze, um hyperrealistische Videos zu erstellen, die Menschen zu zeigen scheinen, die etwas sagen oder tun, was sie im wirklichen Leben nicht getan haben. Zu den virulentesten Beispielen gehören Videos, die mit Hilfe von maschinellem Lernen gemorpht wurden, um Politikern Worte in den Mund zu legen. Dies wird verwendet, um Verwirrung über ihre Politik zu stiften und Wahlen zu beeinflussen.

Eine weitere toxische Verwendung von Deepfakes besteht darin, die Gesichter von Prominenten in Videos für Erwachsene zu verändern, was zu massiven Verletzungen der Privatsphäre und der Würde führt. Deepfakes sind in den letzten Jahren zu einem massiven Problem geworden und es wird mit der Verfügbarkeit schnellerer Hardware und prägnanterer Software nur noch schlimmer. Die Technologie ist in letzter Zeit für ihren umfangreichen Einsatz in pornografischen Videos, gefälschten Nachrichten und aufwändigen Hokuspokussen bekannt geworden.

Allerdings sind nicht alle Verwendungen von Deepfakes zwielichtig, wie das folgende Video beweist, das vom MIT-Stipendiaten Alexander Amini erstellt wurde, um seine Schüler zum Lachen zu bringen. Es zeigt scheinbar den ehemaligen US-Präsidenten Barack Obama, der Studenten einlädt, an Aminis Vorlesung über Deep Learning an der Universität teilzunehmen. Es handelt sich jedoch durch und durch um einen Deepfake, wie der Forscher auf seinem YouTube-Kanal unmissverständlich verriet.

Wie funktionieren Deepfakes?

Deepfakes stützen sich auf ein künstliches neuronales Netzwerk namens „Autoencoder“, das verwendet wird, um effiziente Datencodierungen auf unbeaufsichtigte Weise zu lernen. Es wird typischerweise zur Gesichtserkennung sowie zum Auffinden der semantischen Bedeutung von Wörtern usw. verwendet. Im Fall von Deepfake-Videos verwendet die Technologie zunächst einen Encoder, um ein neuronales Netzwerk mit vielen Stunden echtem Videomaterial der Zielperson zu trainieren . Dann rekonstruiert ein Decoder ein neues Bild anhand von Schlüsselinformationen über ihre Gesichtszüge und Körperhaltung. Dies hilft dem Algorithmus, die Gesichts- und Körpermerkmale des Ziels auf die Person im Originalvideo zu legen.

Eine bekannte Technologie in dieser Hinsicht ist eine spezialisierte Klasse von Deep-Learning-Algorithmen, die als Generative Adversarial Network bezeichnet werden. GAN wird oft zum Decoder hinzugefügt, um genauere Ergebnisse zu erzielen. Ein GAN trainiert den Decoder und einen Diskriminator so, dass ersterer neue Bilder aus dem Quellmaterial erstellt, während letzterer bestimmt, ob das neu erstellte Bild mit dem realen Filmmaterial übereinstimmt oder nicht. Dadurch erstellt der Generator Bilder, die die Realität sehr gut nachahmen, da der gegnerische Algorithmus alle Fehler erkennt.

Dies macht es extrem schwierig, Deepfakes zu bekämpfen, da sie sich ständig weiterentwickeln. Jedes Mal, wenn ein Fehler auftaucht, kann er automatisch durch maschinelles Lernen korrigiert werden. Da es keine menschliche Eingabe erfordert, ist GAN zur ultimativen Wahl für die meisten Deepfake-Ersteller geworden. Die Technologie ist jedoch kompliziert und erfordert viel mehr Zeit und Daten, um realistische Kompositionen zu erstellen. Auch wenn GANs gut zum Synthetisieren von Bildern geeignet sind, haben sie Schwierigkeiten, die zeitliche Konsistenz zu wahren, was bedeutet, dass sie menschliches Eingreifen benötigen, um die Ausrichtung der Bilder von einem Frame zum nächsten beizubehalten.

Was sind flache gefälschte Videos?

Ein oberflächliches gefälschtes Video ist eine manipulierte Version eines bestehenden echten Videos, das erstellt wurde, um eine verzerrte Realität zu projizieren. Dazu gehört häufig die selektive Bearbeitung, das Manipulieren der Geschwindigkeit von Reden oder Gesprächen und sogar das Ändern der Tonalität, damit es so klingt, als wäre jemand wütend, betrunken oder macht sich über ein ernstes Problem lustig, wenn nichts davon zutrifft.

Ein bemerkenswerter Fall aus jüngster Zeit ist das berüchtigte, optimierte Video der Sprecherin des US-Repräsentantenhauses, Nancy Pelosi, deren oberflächlich gefälschtes Video ihre Rede verlangsamte, um sie betrunken klingen zu lassen. Diese Videos unterscheiden sich von Deepfakes insofern, als es sich um echte Videos handelt, die mit herkömmlichen Videobearbeitungstools anstelle von KI-Algorithmen manipuliert wurden.

Deepfakes: Geschichte und Anwendungen

Fotomanipulationstechniken wurden ursprünglich im späten 19. Jahrhundert erfunden. Die Technologie verbesserte sich im Laufe des zwanzigsten Jahrhunderts stetig, bevor die Explosion der KI- und maschinellen Lerntechnologien sie zu einem massiven Problem für Internetnutzer weltweit machte. KI-infundierte Videomanipulationstechniken werden seit den 1990er Jahren von Forschern umfassend untersucht, und viele der Methoden wurden seitdem von Filmemachern weltweit übernommen.

Eines der bekanntesten Beispiele für Deepfakes, die in der Mainstream-Unterhaltungsindustrie verwendet werden, war die Auferstehung des verstorbenen Schauspielers Paul Walker Schnell und wütend 7 im Jahr 2015. Während jedoch Dutzende von Experten mehrere Wochen für eine glaubwürdige Nachbildung von Walker brauchten, brauchen jetzt die meisten Hobbyisten mit sehr geringen Programmierkenntnissen nur wenige Stunden (oder manchmal sogar weniger), um neue Deepfake-Videos mit neuen Techniken und Algorithmen zu erstellen. Das Phänomen trat erstmals 2017 in das öffentliche Bewusstsein, als ein Redditor Deepfakes verwendete, um gefälschte Pornovideos von Prominenten zu erstellen und zu posten.

Gefahren von Deepfake-Videos

Deepfake-Videos sind eine Gefahr für ahnungslose Benutzer, die möglicherweise mit Bildern eines vermeintlich destabilisierenden Ereignisses bombardiert werden, wie einem Krieg oder einem Terroranschlag, der nie stattgefunden hat. Sie kann Ressentiments und Unzufriedenheit in der Gesellschaft hervorrufen und zu einer Zunahme politisch motivierter Angriffe auf der Grundlage der rassischen, religiösen und ethnischen Identität von Menschen führen. Die Technologie könnte auch verwendet werden, um FUDs (Angst, Unsicherheit und Zweifel) über Naturkatastrophen zu verbreiten und weit verbreitete Panik auszulösen. Experten sagen auch voraus, dass solche Videos, wenn sie nicht kontrolliert werden, tiefe politische Krisen hervorrufen und sogar die internationalen Beziehungen stören können.

Ein weiteres großes Problem, das bereits pandemische Ausmaße angenommen hat, ist die Bedrohung ahnungsloser Frauen. Deepfake-Videos für Erwachsene, die oft als nicht einvernehmliche Pornografie bezeichnet werden, machten Berichten zufolge im Jahr 2019 mehr als 90 % aller Deepfakes im Internet aus. Während es mit gemorphten Videos begann, die Prominente wie Gal Gadot und Alexandra Daddario darstellen, hat es sich seitdem zu einem regulären Ziel ausgeweitet Frauen als Teil von gefälschten Rache-Pornokampagnen.

Wie erkennt man Deepfake-Videos?

Das Erkennen von Deepfake-Videos ist eine Aufgabe, die selbst Experten ohne die richtigen Tools oft schwer fällt. Forscher des Massachusetts Institute of Technology (MIT) haben jedoch mehrere Vorschläge entwickelt, die normalen Leuten helfen können, den Unterschied zwischen echten Videos und Deepfakes zu erkennen. Ihrer Meinung nach muss man genau auf das Gesicht achten, wenn man versucht zu überprüfen, ob ein Video eines menschlichen Subjekts echt oder gefälscht ist. Das liegt daran, dass High-End-Deepfake-Manipulationen fast immer Gesichtstransformationen sind.

Das Bereiche des Gesichts, auf die man am meisten achten muss, sind die Wangen und die Stirn. Sieht die Haut zu glatt oder zu faltig aus? Entspricht das Alter der Haut dem Alter der Haare und Augen? „DeepFakes sind in manchen Dimensionen oft inkongruent“, sagen die Forscher. Ebenso können die Augen und die Augenbrauen auch verräterische Zeichen für erfahrene Deepfake-Spotter sein. Denn laut den Forschern Schatten in Deepfake-Videos erscheinen nicht immer an den erwarteten Stellen. „DeepFakes können die natürliche Physik einer Szene oft nicht vollständig darstellen“man sagt.

Ein weiteres Merkmal, das ein totes Zeichen ist, ist die Gesichtsbehaarung. Deepfakes können Schnurrbart, Koteletten oder Vollbart hinzufügen oder entfernen, aber sie lassen Gesichtsbehaarung oft nicht ganz natürlich aussehen. Gleiches gilt für Gesichtsflecken, die in Deepfakes oft nicht natürlich genug aussehen. Auch die Größe und Farbe der Lippen könnte einen Hinweis auf die Validität eines Videos geben. Die Rate und Geschwindigkeit des Blinkens könnte auch Bände darüber aussagen, ob ein Video echt oder gefälscht ist. Unnatürlich häufiges oder seltenes Blinzeln kann auf die Deepfakeness eines Videos hindeuten.

Laut MIT-Forschern sind hochwertige Deepfakes jedoch nicht leicht zu erkennen „Mit etwas Übung können Menschen eine Intuition entwickeln, um zu erkennen, was falsch und was echt ist“. Die Forscher erstellten auch eine vollwertige Webseite, auf der Leute Videos hochladen und versuchen können zu erraten, ob sie echt oder gefälscht sind. Sie können Ihre Deepfake-Erkennungsfähigkeiten auf der Detect Fakes-Website des MIT ausprobieren.

Deepfakes: Prävention und gesetzgeberische Maßnahmen

Verschiedene Länder auf der ganzen Welt versuchen bereits, die klare und gegenwärtige Gefahr anzugehen, die von KI-infundierten Deepfakes ausgeht. Während China Deepfake-Videos bereits 2019 verbot, führte der US-Bundesstaat Kalifornien früher im selben Jahr ähnliche Gesetze ein, um politische Deepfakes illegal zu machen und die Erstellung oder Verbreitung manipulierter Videos, Bilder oder Audiodateien von Politikern innerhalb von 60 Tagen nach einer Wahl zu verbieten . Seitdem haben auch andere US-Bundesstaaten, darunter Texas und Virginia, Deepfake-Pornos kriminalisiert. Im Dezember 2019 unterzeichnete Präsident Trump das erste Bundesgesetz der Nation zur Bekämpfung von Deepfakes als Teil des National Defense Authorization Act, 2020.

Unterdessen gibt es in Indien keine spezifischen Gesetze zu Deepfake-Medien. Tatsächlich sind die Gesetze im Zusammenhang mit Algorithmen der künstlichen Intelligenz bestenfalls lückenhaft. Eine der bemerkenswertesten Anwendungen von Deepfakes im Land war während der Wahlen 2020 in Delhi zu beobachten, als die IT-Zelle der BJP ein offizielles Kampagnenvideo veröffentlichte, das angeblich ihren Ministerpräsidentenkandidaten Manoj Tiwari zeigte, der sich an die Wähler auf Hindi, Haryanvi und Englisch wendet . Das Problem ist, dass nur das Hindi-Video echt war, während die anderen beiden Deepfake-Clips waren, die unter Verwendung des Originalvideos hergestellt wurden, um einen größeren Querschnitt von Wählern zu erreichen.

Verhindern Sie die Verbreitung von Desinformationen, indem Sie Deepfake-Videos entdecken

Einst das Reservat von millionenschweren Hollywood-Produktionen und staatlich geförderten Agenturen und Organisationen, sind Deepfakes in letzter Zeit immer stärker demokratisiert worden. Dies ermöglicht es normalen Internetnutzern, Deepfakes mit Deepfake-Apps und -Websites zu erstellen. Angesichts der astronomischen Zunahme von Deepfakes in den letzten Jahren ist es wichtiger denn je, sie erkennen zu können.

Wir hoffen, dass die Informationen hier dazu beigetragen haben, Ihnen eine ganzheitlichere Vorstellung von der Technologie, den von ihr ausgehenden Bedrohungen und den Anzeichen zu geben, auf die Sie achten sollten, um Deepfake-Videos in Zukunft besser zu erkennen. Sind Sie also schon einmal Opfer von Deepfakes von zwielichtigen politischen Aktionsgruppen oder Verschwörungstheoretikern geworden? Lassen Sie es uns in den Kommentaren unten wissen.

Leave a Comment

Your email address will not be published.