Fotos zu fälschen, ist schon lange kein Problem mehr. Bei Videos sah das bisher anders aus. Doch auch hier können wir unseren Augen nicht mehr trauen. Jetzt gibt es eine Software, mit der es ziemlich leicht ist, auch bewegte Bilder zu manipulieren.
Im Gegensatz zu Fotos, tendieren wir dazu, bewegte Bilder im TV oder auf YouTube für authentischer zu halten. Denn Videos zu fälschen, galt bislang als äußerst schwierig. Mit dem Programm "Deep Video Portraits“ dürfte sich das allerdings ändern.
Die komplette Mimik ändern
"Damit kannst du zum Beispiel ein Video von Angela Merkel erstellen, wo sie ankündigt, dass ab morgen sämtliche Sparguthaben und Kontostände in Euro ersatzlos gestrichen und danach die D-Mark wieder eingeführt wird", sagt unser Reporter Michael Gessat.
"Mit 'Deep Video Portraits' kannst du die komplette Gesichtsmotorik aus einer Quelle, entweder ein bereits vorhandenes Video oder ein Akteur vor einer Kamera auf ein Zielmaterial, also etwa ein vorhandenes Video von Angela Merkel übertragen."
Die Idee sei das zwar nicht ganz neu, sagt Michael Gessat, aber Deep Video Portraits könne viele Dinge wesentlich besser als andere Software. So würde zum Beispiel nicht nur die Mundregion passend zum geänderten Text übernommen, sondern die komplette Mimik, und zwar so, dass die zur natürlichen Mimik der Zielperson passt.
Mit der Software sei es auch möglich, die Bewegung des Oberkörpers mit automatischer Anpassung des Bildhintergrundes zu übernehmen.
"Man kann auch von vornherein bestimmte Gesichtsparameter per Mausklick verändern, sagen wir mal Frau Merkel die Mundwinkel hochziehen."
Deep Video Portraits basiert auf Techniken der Gesichtserkennung und des Maschinenlernens. Daher auch das Wort Deep im Programmname. Die Software findet in dem vorhandenen Quell- und Zielmaterial die für die Mimik signifikanten Punkte und Bewegungsmuster und überträgt die dann von Quelle zum Ziel. "Dazu kommt dann ein synthetisiertes Audio, mit der ich also der Kanzlerin Worte in den Mund legen kann, die sie nie gesagt hat", so unser Reporter.
Missbrauchsgefahr ist Forschern bewusst
Entwickelt wurde Deep Video Portraits von verschiedenen Wissenschaftlern – unter anderem auch von Forschern der TU München. Neben der Gefahr des Missbrauchs und der Desinformation gebe es durchaus auch seriöse Anwendungsmöglichkeiten, so Michael Gessat – beispielsweise die Nachbearbeitung von Filmen, oder die Synchronisation könne auf eine ganz neue Stufe gehoben werden.
"Die Forscher sind sich der Missbrauchsgefahren durchaus bewusst und veröffentlichen das Programm genau auch dafür, damit man eben vorgewarnt ist."