Der US-Wahlkampf und der Boom Künstlicher Intelligenzen fallen zusammen. In einem Deepfake-Video, das gerade kursiert, lobt zum Beispiel Hillary Clinton angeblich Ron DeSantis. Schon jetzt sind solche Videos im Umlauf – und das ist nur der Anfang.

Ein gefälschtes Video der US-Demokratin Hillary Clinton geht durchs Netz, in dem sie angeblich eine Wahlempfehlung für Ron DeSantis abgibt, den rechtskonservativen Gouverneur von Florida, der gerade seine Präsidentschaftskandidatur für die Republikaner angekündigt hat.

"People may be surprised to hear me say this, but I actually like Ron DeSantis. Yeah, I know. I would say he is just the guy this country needs, and I really mean that: If Ron DeSantis got installed President, I‘d be fine with that."
Gefälschte Aussage von (angeblich) Hillary Clinton

Die echte Hillary Clinton hat natürlich nichts dergleichen gesagt. Der Clip ist eine Fälschung. Von wem er kommt, ist nicht klar.

Die Lippenbewegungen der gefälschten Hillary passen allerdings nicht wirklich zu den Worten, sagt Deutschlandfunk-Nova-Netzreporter Michael Gessat. Ihre
Kopfbewegung wiederholt sich offenbar und es sind holprige Schnitte in dem Clip. Dass das Video "täuschend echt" aussehe, wie es bei heise.de steht, kann er nicht nachvollziehen.

Audio-Deepfakes leicht zu machen

Viele Social-Media-Konsument*innen schauen aber eben nur flüchtig hin. Und die gefälschte Hillary-Stimme klingt sehr realistisch. Audio-Deepfakes sind heute relativ leicht zu erstellen, sagt Michael Gessat. Zumindest für die englische Sprache gibt es inzwischen diverse Anbieter und Tools, die das ermöglichen. Je nachdem, wie gut der akustische Klon werden soll, muss man der KI entsprechend viel Trainingsmaterial einspeisen. Und von Promis findet sich reichlich im Netz.

"Viele Social-Media-Konsumenten schauen nur flüchtig hin. Und gute Audio-Deepfakes sind relativ leicht zu erstellen."
Michael Gessat, Deutschlandfunk-Nova-Netzreporter

Für das Fake-Video nutzen die Fälschenden entweder die altmodische Variante und vertonen vorhandenes Videomaterial neu. Oder aber sie holen sich auch hier KI zur Hilfe. Die meisten dieser Videotools sind allerdings – Stand jetzt – qualitativ eher dafür geeignet, Gags zu produzieren als richtig überzeugende Deepfakes.

Wobei: Unser Netzreporter hat das frei verfügbare Tool "DeepFaceLab" ausprobiert. Er spricht von einigem Aufwand bei der Installation, außerdem sei eine Top-Grafikkarte nötig – und natürlich gutes Bildmaterial von der Person, die man faken will. Wenn das alles gegeben ist, sind die Resultate in manchen Szenarien ganz gut, sagt er – und zwar dann, wenn eine gut ausgeleuchtete Person frontal vor einem statischen Hintergrund steht und in die Kamera spricht.

Politiker-Statements vor statischem Hintergrund

Bei Statements, Reden oder Interviews von Politiker*innen ist genau das der Fall. Im Netz kursiert zur Zeit auch ein gefälschter Clip, in dem sich US-Präsident Biden abfällig über Transgender-Personen äußert. Oder ein angeblicher Ausschnitt aus einem CNN-Politmagazin mit einer vermeintlich anerkennenden Bemerkung des Moderators über Donald Trump ("Das war Donald J. Trump, der uns hier live den Arsch aufgerissen hat").

Der Ex-US-Präsident war davon offenbar so begeistert, dass er den Clip prompt auf seiner eigenen Plattform "Truth" (!) verbreitete. Später lenkte er ein und erklärte, man habe ihm gesagt, der Clip sei echt. "Aber man wisse ja nie in diesen Zeiten", schreibt er. Vielleicht hat Donald Trump ja doch Humor.

Der US-Wahlkampf und der Boom Künstlicher Intelligenzen fallen zusammen. In den nächsten Monaten bis zur Wahl werden garantiert weitere Deepfakes folgen – und sie werden wahrscheinlich auch immer besser werden. Unser Netzreporter findet, dass die zusätzlichen Deepfakes die ohnehin schon komplizierte Lage kaum noch weiter verschlimmern werden.

Shownotes
Fälschungen im Netz
KI befeuern Deepfakes im US-Wahlkampf
vom 01. Juni 2023
Moderation: 
Ilka Knigge
Gesprächspartner: 
Michael Gessat, Deutschlandfunk-Nova-Netzreporter