© Bildagentur PantherMedia  / damedeeso

„To shake a fact“ bedeutet, dass man eine Tatsache nicht aus dem Kopf bekommt. Sie hat sich festgesetzt und auf ewig ins Gedächtnis gebrannt. Das Netz vergisst nie und funktioniert ähnlich wie das Gedächtnis, aus dem man Erinnerungen nicht einfach wegwischen kann. Besonders verheerend ist das, wenn kompromittierendes Material auftaucht, über das man keinerlei Kontrolle hat und überhaupt nicht haben kann.
Stellen Sie sich vor, es kursieren Nacktbilder von Ihnen online, von denen Sie überhaupt nichts wissen, weil diese Fotos auch gar nicht echt sind. Im vergangenen Jahr sorgte eine KI-App für Aufsehen, die in der Lage war, Menschen auszuziehen und damit Aktfotos zu generieren, die täuschend echt wirkten. DeepNude ermöglichte es im Sommer 2019, aus dem Foto einer bekleideten Frau innerhalb von kurzer Zeit ein Aktfoto zu erstellen – für gerade mal 50 Dollar. Die App konnte nur Frauen „ausziehen“ – das Interesse an nackten Männern schien eher gering zu sein. Nachdem Vice einen alarmierenden Bericht über die KI-App veröffentlicht hatte, zogen die Entwickler die Software aus dem Verkehr.
Doch nun wurde ein Deepfake-Ökosystem entdeckt, das genau das Gleiche ermöglicht wie DeepNude. Auf der reichlich intransparenten Messenger-Plattform Telegram, die in jüngster Zeit vor allem im Zusammenhang mit „Rechtsverstößen vielfältiger Art“ von sich reden macht, erstellt ein Bot Nacktfotos von Frauen – for free. Kostenlos können die Frauen zwar nicht ganz entkleidet werden und ein Wasserzeichen ist auch zu sehen, aber gegen eine geringe Summe werden die Betroffenen auch vollständig ausgezogen und das Wasserzeichen wird entfernt. Entsprechende Fotos kursieren bereits seit einiger Zeit auf der Plattform. Die gefälschten Nacktaufnahmen werden auf externen Servern erzeugt. Mittlerweile ist klar, dass nicht nur die Fotos erwachsener Frauen, sondern auch Bilder von minderjährigen Mädchen verwendet werden, um Fake-Fotos zu erstellen. Was es für die Betroffenen bedeutet, wenn Fremde oder auch Bekannte – die meisten Täter stammen aus dem Umfeld der Opfer – entsprechende Aufnahmen zu sehen bekommen, mag man sich fast nicht vorstellen.
Deepfakes sind durch die kontinuierliche Weiterentwicklung künstlicher neuronaler Netzwerke zu einem echten Problem geworden. Politisch werden sie bereits seit Jahren gerne zu Propagandazwecken genutzt, doch mittlerweile hat jeder, der ein Smartphone besitzt, die Möglichkeit, entsprechende Medieninhalte zu generieren. Sich selbst in Sisi oder Kleopatra oder diverse andere Filmstars zu morphen, ist eine beliebte Spielerei, wenn einem sonst nichts mehr einfällt. Die Reface-App macht’s möglich. Die Qualität der Fälschungen ist mittlerweile verblüffend gut. Ich wunderte mich kürzlich über die frappierende Ähnlichkeit einer Bekannten mit Romy Schneider – bis ich begriff, dass die Film-Sisi tatsächlich das Gesicht meiner Bekannten hatte.

„TINA, BIST DU DAS WIRKLICH?“

Die Grenze zwischen Fakt und Fiktion verwischt zusehends. Fälschungen sind mittlerweile so gut, dass wir sie nicht mehr erkennen können. Und das macht etwas mit uns. Es untergräbt unser Vertrauen. Was können wir noch glauben, wenn wir zwischen echten und künstlich erzeugten Inhalten nicht mehr unterscheiden können? Es gibt Foto-, Audio- und Video-Deepfakes. Was bedeutet es für uns, wenn wir nicht mehr sicher sein können, ob wir mit einer Freundin telefonieren oder mit einer künstlich erzeugten Stimme, die der unserer Freundin nachempfunden wurde? Wenn alles sich dem Verdacht ausgesetzt sieht, eine Fälschung zu sein, erzeugt dies eine massive Vertrauenskrise in der Gesellschaft. Die Folgen spüren wir bereits seit einiger Zeit. Das Problem beim Vertrauensverlust ist, dass es extrem schwierig ist, es zu lösen, weil selbst Lösungsansätze nicht mehr vertrauenswürdig wirken. Verwirrung und Vertrauensverlust wirken wie Gift für eine Gesellschaft und gehören zu den größten politischen und sozialen Herausforderungen unserer Zeit. Es kann nicht sein, dass Frauen Angst haben müssen, von einer Software ausgezogen zu werden.
Mit der Entwicklung immer zuverlässiger arbeitender künstlicher Intelligenzen ist es ein bisschen wie beim Zauberlehrling. Die Geister, die wir riefen, werden wir so schnell nicht los. Nur leider gibt es keinen alten Hexenmeister, der zurückkehrt, um alles wieder in Ordnung zu bringen. Der Zauberlehrling muss lernen, selbst die Verantwortung zu tragen. Dass der Mensch darin nicht gerade gut ist, kann man derzeit in diversen Bereichen des öffentlichen Lebens beobachten. Aber die Hoffnung stirbt zum Glück zuletzt.

Ähnliche Artikel

Die Datenschutzkolumne...

DIE DSGVO UND DIE WIENER KLINGELSCHILDAFFÄRE Sobald in den Medien über den...

Datenschutzkolumne: Krank in...

Kennen Sie den? Neulich im Wartezimmer. Der Lautsprecher knistert und es folgt eine...

DIE DSGVO – DER...

Das gibt’s doch nicht! Jetzt nimmt die Datenschutz-Grundverordnung unseren Kindern auch...