Ein Klitschko nur am Schirm: Deep-Fake-Experte klärt auf
Wiens Bürgermeister Michael Ludwig ging einem falschen Amtskollegen aus Kiew auf den Leim. Deep Fake? Täuschungen können auch simpel sein, sagt ein Experte.
Von Wolfgang Sablatnig
Wien – Wiens Bürgermeister Michael Ludwig (SPÖ) hat die Bilder von seiner angeblichen Videokonferenz mit dem Kiewer Stadtchef Vitali Klitschko wieder löschen lassen. Wie die Bürgermeister von Berlin und Madrid hatte Ludwig sich mit Klitschko über den Krieg in der Ukraine und die Folgen unterhalten. Zwar war auch ihm einiges merkwürdig erschienen. Anders als Franziska Giffey (Berlin) und José Luis Martínez-Almeida (Madrid) postete Ludwig aber ein Bild von dem virtuellen Treffen. Erst am Wochenende wurde man sich im Wiener Rathaus bewusst, dass man einer Manipulation aufgesessen war – mutmaßlich einem „Deep Fake“. Der Staatsschutz ermittelt.
Ludwig berichtete, der falsche Klitschko sei fordernd aufgetreten. Giffey wurde misstrauisch, als ihr Gegenüber eine Gay-Parade in Kiew vorbereiten wollte – mitten im Krieg. Ein Verdacht auf die Hintergründe der Manipulationen weist nach Russland. Desinformation aus Moskau ist schon lang ein Thema. Jetzt könnten die Konferenzen des angeblichen Klitschko ein Teil des Informationskrieges aus dem Kreml sein.
Entscheidung obliegt den Anwendern
Deep Fake: „Das bekannteste Beispiel ist wohl der Deep Tom Cruise“, sagt Softwarespezialist Martin Boyer. Ein Belgier postete Clips mit dem Star auf der Plattform TikTok. Die Videos gingen viral. Statt aus Hollywood kamen sie aus dem Computer.
📽️ Video | Tom Cruise Deepfake
Deep Fakes sind Videos, die mit Hilfe von Künstlicher Intelligenz eine Person bis hin zur Mimik imitieren. Oft sind Prominente die Opfer. Oft sind es Frauen, deren Köpfe für Porno-Filme missbraucht werden. Je besser die Technik, desto mehr öffnet sich das Feld aber für Betrug, Erpressung und politische Beeinflussung. Auch simple Apps am Smartphone oder PC können schon sehr viel.
Boyer forscht daran, Deep Fakes und Desinformation zu erkennen. Er betreut am Austrian Institute for Technology in Wien das Programm Defalsif-AI. Experten aus verschiedenen Bereichen arbeiten an einem Tool, das mit Hilfe Künstlicher Intelligenz manipulierte Inhalte aufspüren soll. Hinter dem Projekt steht das von der Republik finanzierte Sicherheits-Forschungsprogramm Kiras.
Das Tool soll Hinweise geben. Die Entscheidung über Fake oder Realität bleibe aber immer bei den Anwendern, sagt Boyer. Er hält es daher für wichtig, dass sich Behörden, Medien und alle Bürgerinnen und Bürger der Möglichkeiten von Deep Fake und Fälschung bewusst sind.
Katz-und-Maus-Spiel
Zwar entscheide der technische Aufwand, wie perfekt ein Deep Fake gelingt. Dennoch komme dem Faktor Mensch eine wichtige Rolle zu. „Eine Fälschung muss nicht immer aufwändig technisch herbeigeführt werden.“ Beispiel Videokonferenz: Störungen in Bild und Ton werden oft auf eine schlechte Internet-Verbindung zurückgeführt. Vielleicht haben aber nur die Fälscher nicht gut gearbeitet.
Bei schlechter Ton- und Bildqualität könnte statt eines perfekten Computer-Klitschko ein Doppelgänger reichen, um die Zuschauer zu täuschen. Boyer: „Wir sind einfach nicht in jeder Sekunde des Medienkonsums darauf konzentriert, Fälschungen zu erkennen.“
Der Ministerrat hat im Mai ein Aktionsprogramm beschlossen, mit dem Ziel, das Problem Deep Fake von vielen Seiten anzugehen. Letztlich handelt es sich um ein Katz-und-Maus-Spiel zwischen Fälschern und deren Bekämpfern, sagt Boyer. Auf Fortschritte der einen Seite folge stets die Antwort der anderen. Noch vor Kurzem etwa schafften es Computer nicht, ihre virtuellen Schöpfungen naturgetreu blinzeln zu lassen. Fehlte das Auf und Zu der Augen, war das ein Indiz für ein Deep Fake. Die Fälscher haben aufgeholt.