Die regierende Bürgermeisterin von Berlin, Franziska Giffey, ist letzte Woche Freitag Opfer einer digitalen Täuschung geworden. Eigentlich wollte sie um 17 Uhr per Videokonferenz mit Vitali Klitschko, Oberbürgermeister der ukrainischen Hauptstadt Kiew, sprechen. Doch im Verlauf des Gesprächs stellte sich heraus, dass das Gegenüber zwar aussah und sprach wie Vitali Klitschko, es sich aber nicht um eine reale Person handelt, sondern um eine Fälschung. Auch der Bürgermeister Madrids, José Luis Martínez-Almeida, traf auf jenen Fake-Klitschko, genauso wie Wiens Bürgermeister Michael Ludwig, Warschaus Stadtpräsident Rafał Trzaskowski und der Budapester Oberbürgermeister Gergely Karacsony.
Seitdem wird spekuliert, welche Technik hinter jenem Fake-Klitschko steckt. Zunächst wurde in der Berliner Senatskanzlei vermutet, dass es sich um einen sogenannten Deep Fake handle. Bei einem Deep Fake werden unzählige Video-, Audio- und Bilddaten einer Person, ihre Lippen- oder Kopfbewegungen, ihre Gestik, Mimik und Sprache, von einer künstlichen Intelligenz tiefgehend analysisiert, um so neues Videomaterial zu generieren. So können Statements oder Interviews von Personen produziert werden, ohne ihre Anwesenheit und ohne ihr Wissen. Von Deep-Fakes sind vor allem prominente Persönlichkeiten betroffen, von denen sehr viel Bild-, Video- oder Audiomaterial im Netz zu finden ist. Berühmtestes Opfer ist beispiel Barack Obama. Von ihm gibt es ein Deep-Fake-Video, in dem er vor Deep Fakes im Netz warnt. Den Link dazu finden Sie unten.
Inzwischen gibt es Zweifel an der Theorie der Senatskanzlei, es handle sich bei dem Fake-Klitschko um einen Deeep-Fake. IT-Sicherheitsexperten gehen nun eher von einem sogenannten Cheap Fake (von einer "billigen Fälschung") aus. Das heißt: Es wurden in der Videokonferenz ledigliche Videoschnipsel von Herrn Klitschko abgespielt. Möglich ist das über Programme, die statt das Kamerbild eingespielte Videos über die Webcam sendet.
Deep Fakes finden immer mehr Verbreitung im Netz. Es sind beispielsweise vermehrt Apps in den sozialen Netzwerken im Umlauf, mit denen Tiere oder Menschen zum singen oder tanzen gebracht werden können. In diesen lädt man nur ein Bild hoch, die KI erledigt den Rest. Deep Fakes begünstigen auch Kriminalität. So sind Fälle bekannt, in Bilder und Videos von Personen, insbesondere von Prominenten, missbraucht wurden, um ihre Körper, insbesondere ihre Köpfe, in pornografische Filme einzufügen. Betrug und Datendiebstahl können genauso durch Deep Fakes begünstigt werden wie das Verbreiten von Fake News oder Verschwörungserzählungen.
Deep Fakes sind auf dem Vormarsch, sind aber häufig noch sehr unausgereift. Daher kann man sie mit genauem Hinsehen häufig sehr gut erkennen, zum Beispiel an fehlerhaften Proportionen, merkwürdig verschobenen Hintergründen, an häufigen Schnitten sowie an ständig sich wiederholenden Grafik- oder Pixelfehlern. Cheap Fakes in Videokonferenzen lassen sich recht einfach aufdecken. Wenn Sie unsicher sind, ob Sie mit einer realen Person sprechen, fordern Sie sie einfach auf, die Hand zu heben oder einen bestimmten Satz zu wiederholen. Geschieht das nicht, sehen Sie wahrscheinlich ein Video.
Sollten Sie Opfer von Deep Fakes geworden sein, hat jemand ihre Bilder oder Audiodateien ohne Ihre Zustimmung missbraucht, so informieren Sie umgehend die Polizei. Zuvor sollten Sie Beweise sichern.