Habt ihr schon mal dem privaten Tom Cruise beim Zaubern zugesehen? Oder wie er Gitarre spielt? Oder wie er ‚inflagranti‘ beim Spülen in einer Industrieküche erwischt wird? Klingt abstrus? Dann kennt ihr wohl nicht „deeptomcruise“, den vermeintlichen Tiktok-Channel des „Mission impossible“-Stars. Doch wer genauer hinsieht, der kann hier und da etwas Unscharfes, Verwaschenes erkennen, oder ein Wackeln im Mund- und Augenbereich. Oder einfach ein generelles Gefühl von Fremdartigkeit, das einen beim Betrachten der kurzen Videos beschleicht. Und ihr würdet recht in eurer Annahme gehen, dass etwas nicht stimmt. Denn der Kanal wird gar nicht von Tom Cruise selbst betrieben oder verwaltet. Vielmehr noch ist es nicht einmal der echte Tom Cruise, der dort charismatisch in die Kamera lächelt – Hier wird sich Deepfakes bedient.
Chris Ume heißt der verantwortliche Ersteller der Videos, der in tage- und wochenlanger Arbeit diese Deepfake Videos hergestellt hat. Man sollte aber nicht meinen, die Videos wären rein digital entstanden. Diese Detailtreue ist heutzutage noch nicht möglich. Vielmehr besitzt er einen Partner, den Schauspieler Miles Fisher. Dieser sieht Cruise zwar ähnlich, doch keineswegs so, wie es die Videos einem Glauben machen wollen. Aber diese Ähnlichkeit ist hilfreich für die Deepfake Bearbeitung. Ebenso hilfreich ist die Tatsache, dass Fisher professioneller Cruise-Imitator ist. Er kennt also die Mimik, Gestik, Körpersprache, Stimme und Sprechweise des Scientology-Veteranen in- und auswendig. Daher ist der Fake auch so überzeugend, weil er sich nicht nur Technik allein bedient.
Anhand dieses Beispiels sollte klar werden, wie viel Potential in der Technologie steckt. Und wie sie eine lukrative Einnahmequelle für Filmstudios und -schaffende werden könnte. Doch wie weit ist die Technik bisher? Was für Möglichkeiten tun sich noch auf und wo sind die unumgänglichen Risiken? Wir zeigen euch auf, wie Deepfakes die Zukunft der Entertainment-Branche verändern können.
Was steckt hinter Deefakes?
Um euch einen besseren Einblick in die zugrundeliegende Technik hinter Deepfakes zu verschaffen, gibt es hier unseren Artikel über Deepfakevideos.
Im Grunde genommen nutzt eine Deepfake-Software einen Datensatz der Zielperson (bestehend aus Videos und Bildern), um auf dieser Grundlage eine Fälschung zu erzeugen. Dabei arbeiten zwei Systeme, die sich gegenseitig bedingen. Das erste System, eine KI, erstellt die Fälschung, das zweite System, ein Deep-Learning-Algorithmus, überprüft, ob es die Fälschung vom Original unterscheiden kann. Das Bild oder Video wird solange zwischen den Systemen hin und her gesendet, bis ein Endergebnis entsteht, welches der Algorithmus und die KI als täuschungsecht ansehen.
Soviel erst einmal zur Technik. Das Potential dahinter ist enorm und durch KI und Deep Learning als Basis auch menschenunabhängig. Das heißt, jeder oder jede kann Deepfakes erstellen, solange man Zugriff auf die entsprechende Software hat. Kein Wunder also, dass ständig vor den Gefahren und möglichen Missbräuchen der Technologie gewarnt wird. Solange sich die Öffentlichkeit über Deepfakes im Bilde ist und die Missbrauchsmöglichkeiten kennt, ist sie in der Lage, besser zwischen echt und fake zu unterscheiden.
Wie werden Deepfakes aktuell genutzt?
Was uns zu den positiveren Seiten der Geschichte bringt. Denn Deepfakes haben mittlerweile einiges an Unterhaltungspotenzial inne. Auf Tiktok sprießen die Imitationskanäle von berühmten Persönlichkeiten nur so hervor. Die Qualität variiert jedoch stark zwischen den verschiedenen Accounts. Auf Social Media finden auch eigens für die Plattformen entwickelte Deepfake-Algorithmen und -KI Anwendung. Beispielsweise entwickelt die Firma D-iD in Indien eigens für die App „Welcome to Josh“ die Möglichkeit, ein Bild von sich selbst hochzuladen, welches dann mit dem Programm animiert wird und blinzeln, lächeln und sich bewegen kann. Ein nettes Gimmick, das zeigt, wie schnell wir uns an die Technologie gewöhnen.
In anderen Bereichen wird die Technologie noch etwas stiefmütterlich behandelt, nämlich in der Film- und Schauspielbranche. Obwohl die Industrie eigentlich prädestiniert dafür ist, haben wir als Konsument*Innen noch nicht mal die Spitze des Eisberges gesehen. Zwar werden tote Schauspieler*Innen und Charaktere bereits für die große Leinwand rekreiert, doch geschieht dies hauptsächlich mittels VFX und CGI. Die Unterschiede sind gewaltig, nicht nur in der Optik. Auch die Herstellung dieser Effekte und Modelle benötigt unzählige Mitarbeiter*Innen, Zeit und Geld, obwohl das Ergebnis oftmals bescheiden wirkt. Man sehe sich nur Peter Cushing als Moff Tarkin in „Star Wars: Rogue One“ an oder Carry Fisher in „Star Wars 8“. Beide wurden digital erstellt und bei beiden Szenen wirkt das ganze recht befremdlich und wirft aus der filmischen Illusion heraus.
Um das Potential von Deepfakes in der praktischen Anwendung zu verdeutlichen, hat sich ein YouTuber den besagten Szenen angenommen. Shamook heißt er und nach einer Bearbeitung mit einem Deepfake-Programm sind die Charaktere auf einmal wesentlich realistischer. Sie passen sich besser an die räumlichen Lichtverhältnisse an, haben feinere Mimik und sind nicht so deutlich im „uncanny valley“ wie vorher. Das sah auch Disney so und heuerte den Mann an, nachdem seine YouTube-Videos Millionen Klicks erzielten.
Was für Anwendungen ergeben sich noch?
Disney forscht selbst intensiv daran, Deepfakes für ihre Projekte einzusetzen. Denn Deepfakes sind wesentlich günstiger in ihrer Erzeugung und benötigen nicht so viel Manpower. Daher eignen sie sich perfekt für die Anwendung in Hollywood. Auf einem Kongress für Computergrafik gab das Disney Research Studio in Zusammenarbeit mit ETH Zürich ein Video aus, auf dem neue Deepfake-Innovationen präsentiert wurden. Unter anderem eine eigene Software, die Konkurrenzprodukte wie Deepfacelab um längen schlägt. Disneys Anwendung nutzt deutlich hochauflösendere Fotos als Grundlage für Manipulation. In Verbindung mit besserer Bildstabilisierung an kritischen Bereichen wie Augen und Mund und Blendern, die die Lichtverhältnisse stark angleichen, kann sich das Ergebnis sehen lassen. Disney forscht intensiv an dieser Technik und sie wird bald auf den eigenen Plattformen zu sehen sein.
Mit einer realistischen Software lassen sich Prozesse wie De-Aging wie bei „The Irishman“ bald ganz einfach erzeugen. Und heute werden Deepfakes auch in der Synchronisation verwendet. Die Firma „Flawless“ entwickelte eigene AI, die Dubbingtexte an die Lippenbewegungen der Schauspieler*Innen anpasst, abhängig von der Landessprache. So sollen ungenaue Übersetzungen und Lippenfehler entfernt und ein immersiveres Seherlebnis erzeugt werden. Leider ist die Technik noch nicht ausgereift, denn das Endergebnis ist noch mit Ungereimtheiten übersäht, das Potenzial aber da. Hierbei stellt sich die Frage, ob wir nicht auch ohne diese Angleichungen die letzten 100+ Jahre Filmsynchronisation gut zurechtgekommen sind.
Shamook, Disneys neuer Deepfake-Künster, erzählt in einem Interview, wie er die Gefahren von Deepfakes aktuell einschätzt. Laut ihm sind Deepfakes auch jetzt noch zu aufwendig in ihrer Herstellung. Wir laufen also nicht Gefahr, an jeder digitalen Ecke mit gefälschten Videos und Bildern konfrontiert zu werden. „One click fakes” sind noch nicht möglich, dafür muss das Zielobjekt zu sehr mit dem Ausgangsobjekt übereinstimmen (wie im Falle des Tom Cruise-Nachahmers). Doch was in zehn Jahren damit sein wird, ist eine andere Frage.
Die Risiken von Deepfakes
Was bei dieser Träumerei schnell aus dem Blick gerät sind die Risiken. Ihr wisst bereits, wie gefährlich Deepfakes im Zusammenhang mit Mobbing oder Wahlmanipulation sein können. Darauf verweist so ziemlich jeder Beitrag über das Thema. Doch in Hinblick auf die Entertainment-Branche fallen noch weitere Probleme auf. Erst einmal stellt sich die rechtliche und gleichzeitig ethische Frage, wer die Persönlichkeitsrechte der Verstorbenen verwaltet, wer sie inne hat oder ob sie beim Tod verloren gehen. Urheberrechte gehen ja bekanntlich 75 Jahre nach dem Tod in die öffentliche Hand über. Doch wer hält das Recht am Gesicht eines Toten? Fragen über Fragen. Eine andere Gefahr ist die ständige Reproduzierbarkeit der Schauspieler*Innen. Wenn Sigourney Weaver potenziell in jedem neuen Aliens-Film als Ripley auftreten kann, wozu noch nach neuen Talenten Ausschau halten? Für junge Branchenanfänger*Innen wäre das sicherlich ein weiteres Hindernis auf dem Weg zum Ruhm. Und die Vielfalt der Branche stünde auf wackeligen Beinen.
Es gibt sicher noch unzählige weitere Anwendungsmöglichkeiten für Deepfakes in der Zukunft. Und auch die Risiken sind weitaus breitgefächerter als hier deutlich wird. Aber es gibt euch eine Vorstellung des Potenzials und der damit verbundenen Nebeneffekte. Doch wir bei Netzpiloten sind Zukunftsoptimisten und sehen daher eher die Vorteile dieser Technologie. Was die Zukunft der Entertainment-Branche angeht, so stehen uns völlig neue Zeiten bevor. Auch James Dean sieht neuen Zeiten entgegen. Der Schauspieler wird nach 66 Jahren Zwangspause wieder aus dem Ruhestand geholt. Laut CMG Worldwide, die die Rechte an dem neuen Film verteilten, wäre Dean selbst mehr als zufrieden mit der Entwicklung. Der sagte nämlich einst, nur wer nach seinem Tod noch weiterlebe, der hätte den einzig wahren Erfolg gehabt: Unsterblichkeit. Ein Glück, dass sein letzter Wunsch doch noch in Erfüllung geht.
Artikel per E-Mail verschicken
Schlagwörter: Deep Learning, Deepfake, Entertainment, Fake, KI, Real, schauspiel