Wie KI eine Vorarlbergerin zur Löwenjägerin macht

Mit frei zugänglichen Fotos und wenigen Klicks entstehen Videos, die die Realität vortäuschen. Ein Experiment zeigt, wie leicht KI missbraucht werden kann.
Was ist denn da passiert? Ein Video, in dem eine Vorarlbergerin zur Königin von England gekrönt wird? Oder Aufnahmen, in denen die gleiche Frau in der Savanne Jagd auf Babylöwen macht? Irritierende Bilder, besonders für alle, die die junge Frau aus dem Oberland tatsächlich kennen.
Aufgrund Ihrer Datenschutzeinstellungen wird an dieser Stelle kein Inhalt von Youtube angezeigt.
Denn Mae Hafner hat rein gar nichts mit dem britischen Königshaus zu tun, sie war noch nie in England und würde auch niemals ein Tier erschießen. Ganz im Gegenteil, Hafner isst kein Fleisch und pflegt in ihrer Freizeit ehrenamtlich Tiere.
Wenige Klicks. Wer sich die Videos etwas genauer ansieht, merkt schnell, dass die Aufnahmen ebenso unecht sind wie die Geschichten, die sie erzählen. Jeder der kurzen Clips wurde mithilfe künstlicher Intelligenz von der Redaktion der NEUE generiert. Dafür wurden öffentlich zugängliche Bilder von Hafners Instagramaccount genutzt. Mit nur wenigen Klicks entstanden die Videos in nicht einmal zehn Minuten.
Aufgrund Ihrer Datenschutzeinstellungen wird an dieser Stelle kein Inhalt von Youtube angezeigt.
Natürlich wurde Hafner vorab über das Vorhaben der Redaktion informiert und gab klarerweise auch ihre Einwilligung, an dem Experiment teilzunehmen. Was aber genau passieren würde, sah sie jedoch erst, als ihr die fertigen Videos präsentiert wurden. „Das ist so absurd, wie ich da Babylöwen erschieß, das passt gar nicht zu mir“, war die erste Reaktion der jungen Frau auf ein Video. Nachdem sie sich dann alle generierten Videos angesehen und die Inhalte kurz auf sich hat wirken lassen, ergänzt sie: „Ihr habt das mit ,Grok‘ erstellt, oder? Das ist die KI von Elon Musk, die kaum reguliert ist. Deshalb sieht man auch Blut in dem Video, in dem ich die Löwen erschieße. Mit einer anderen KI geht das nicht so einfach.“
Kaum reguliert
Was zunächst aufgrund seiner Absurdität beinahe amüsant wirkt, wird für Hafner rasch zum ernsten Thema. Die junge Frau spricht damit einen zentralen Punkt an: Programme wie jenes von Musk setzen den Fantasien ihrer Nutzer kaum Grenzen, auch wenn diese noch so verstörend sind.
Neue Methoden
Deepfakes wie die Videos von Hafner sind keine neue Erscheinung. Manipulierte Medieninhalte gibt es seit der Erfindung der Fotografie. Verändert hat sich jedoch die Zugänglichkeit der Werkzeuge. Was früher fundiertes Wissen und Erfahrung in Videografie, Spezialeffekten und Fotobearbeitung erforderte, lässt sich heute mithilfe von künstlicher Intelligenz in wenigen Sekunden und ohne Vorkenntnisse umsetzen.
Diese Entwicklung bekam jüngst auch Moderatorin Colleen Fernandes zu spüren. Sie sah sich mit generierten Nacktbildern konfrontiert. Betroffen sind jedoch nicht nur prominente Personen. Auch im Alltag werden Menschen Opfer sexualisierter Gewalt im Internet.

Johannes Pircher-Sanou, Leiter der sozialen Einrichtung Neustart Vorarlberg erklärt dazu: „Konkrete Fälle von Deepfake-basierter sexualisierter Gewalt, die eine Verurteilung nach sich gezogen haben, sind mir aus Vorarlberg derzeit nicht bekannt. In unserem sexual- und sozialpädagogischen Angebot ,sicher.net § 207a‘ für Jugendliche arbeiten wir jedoch aufgrund von Sexting und Cybermobbing intensiv am Thema sexualisierte Gewalt. In diesem Zusammenhang gibt es auch Fälle von Deepfakes.“ Gleichzeitig weist er darauf hin, dass viele Betroffene aus Scham oder Angst vor weiterer Bloßstellung keine Anzeige erstatten. Auch die Rechtslage werde häufig als unklar wahrgenommen.
Maßnahmen
Das Thema hat inzwischen auch die Politik auf Bundesebene erreicht. Am Donnerstag fand in Wien ein Gipfel gegen Frauenhass im Netz statt. Dabei seien „klare Konsequenzen bei der Erstellung von Deepfakes vorgesehen, aber genauso die Verantwortung von Plattformen“, betonte Frauenministerin Eva-Maria Holzleitner dort. Erste Maßnahmen sollen bis Mai folgen.

Im Diskurs über Deepfakes rückt damit auch die Verantwortung der Plattformen in den Fokus. Programme wie Firefly von Adobe oder ChatGPT von OpenAI verfügen über Mechanismen, die etwa die Erstellung pornografischer Inhalte verhindern sollen. Andere Anwendungen wie „Grok“ bieten hingegen sogar einen sogenannten „spicy“-Modus, mit dem gezielt sexualisierte Inhalte generiert werden können. Elon Musk verteidigt diese Funktion mit dem Argument der Meinungsfreiheit.
Florian Buehler, KI-Experte von der Fachhochschule Vorarlberg sieht diese Argumentation kritisch: „Ich halte diese Argumentation für problematisch, weil sie einen falschen Gegensatz öffnet. Meinungs- und Medienfreiheit sind hohe Güter. Aber sie schützen nicht die Erstellung oder Verbreitung von Inhalten, die andere Menschen gezielt entwürdigen, sexualisieren oder schädigen. Gerade bei sexualisierten Deepfakes geht es nicht um freie Debatte, sondern oft um digitale Gewalt, Bloßstellung und Machtmissbrauch.“