Experte erklärt Internet-BetrugEs geht um Sex und Geld! Diese Promis wurden schon Opfer der fiesen Masche

Hemmungsloser Hormonrausch bei Ayto! Da ist manchmal auch Sophia Thomalla sprachlos.
Videos, die im Netz über Sophia Thomalla auftauchten, kannte die Moderatorin überhaupt nicht – und hat sie auch nie gedreht.
RTL

Eine Deepfake-Welle schwappt nach Deutschland und bedroht unsere Promis!
Die KI-Forensiker von Leak.red und RTL haben exklusiv untersucht, wie häufig bestimmte Promis bereits in Deepfake-Videos aufgetaucht sind – also in Clips, die sie nie gedreht haben und die trotzdem massenhaft im Netz geteilt werden. Mit dabei: Vanessa Mai, Mia Julia, Evelyn Burdecki und Sophia Thomalla.

Promis werden massenhaft Opfer perfider KI-Videos

Wer dieser Tage durch Social Media scrollt, sieht es überall: KI-Inhalte überschwemmen das Internet. Die gleiche Technik, die harmlose Unterhaltung produziert, wird zunehmend für etwas Dunkles missbraucht: täuschend echte Deepfake-Videos, die Prominente und ganz normale Nutzer in intime Szenen montieren. Immer mehr Prominente geraten ins Visier.

Evelyn Burdecki
Auch von Evelyn Burdecki gibt es Videos, die sie nie freigegeben bzw. produziert hat.
ddp/Geisler/Kai Schulz

Exklusive RTL-Analyse: KI-Forensiker prüfen ausgewählte Promis

Für die Untersuchung wurden mehrere tausend Webseiten durchsucht, auf denen solche kompromittierenden KI-Fälschungen kursieren – von zwielichtigen Videoportalen über dubiose Streaming- und Download-Domains. Das Ergebnis ist erschreckend: Fake-Videos von Mallorca-Star Mia Julia tauchen auf mehr als 2.500 Webseiten auf.

Gefälschtes Material von Schlager-Kollegin Vanessa Mai findet sich auf knapp 1.900 Seiten. Auch andere bekannte TV-Gesichter wie Sophia Thomalla (rund 1.400 Webseiten), Evelyn Burdecki (etwa 1.200 Webseiten) und Amira Aly (circa 500 Webseiten) sind betroffen – sie sind auf hunderten Seiten mit Bildmaterial zu sehen, das sie nie gedreht haben, aber täuschend echt aussehen. In vielen Fällen gibt es keinerlei realistische Chance, diese Clips jemals vollständig aus dem Internet zu entfernen.

Ein Blick auf Luisa Neubauer zeigt, wie wahllos die Täter vorgehen: Die Klimaaktivistin wird in fast 1.000 Quellen als Deepfake gefunden – obwohl sie öffentlich vor allem mit politischen Themen in Verbindung gebracht wird. Ein besonderer Fall ist auch Collien Fernandes. Sie taucht in der Auswertung auf über 1.500 Seiten mit Deepfake-Inhalten auf – und hat in einer ZDF-Reportage bereits öffentlich gezeigt, wie sie selbst auf die Suche nach Tätern geht. Trotz ihres Engagements gegen das Thema bleibt sie Ziel der Szene.

Anzeige:
Empfehlungen unserer Partner

Was genau ist ein Deepfake – und warum ist es gerade jetzt so gefährlich?

Deepfakes sind KI-erzeugte Fotos oder Videos, die Gesichter oder Stimmen täuschend echt aussehen bzw. klingen lassen. Aus wenigen Sekunden Video- oder Fotomaterial baut die KI ein komplett neues, erfundenes Video. Die Gefahr betrifft längst nicht nur Stars. Auch private Nutzerinnen und Nutzer werden immer häufiger Opfer von Fake-Nacktaufnahmen, gefälschten Sprachnachrichten oder erfundenen Drama-Videos. Alles, was man braucht, sind ein paar öffentlich gepostete Bilder. Das perfide daran: Viele Betroffene schämen sich – obwohl sie selbst nichts falsch gemacht haben. Die Täter nutzen das aus.

Nicht nur Promis, auch „Normalos“ werden zu Opfern

Lese-Tipp: Reich mit Immobilien! Schauspielerin Collien Fernandes kann sich ihre Rollen „nach Herz aussuchen”

IT-Experte Jens Kramosch, Gründer von leak.red zu RTL: Prominente sind in der Regel Personen des öffentlichen Lebens mit großer Reichweite und oft einer Vorbildfunktion. Die im Internet verfügbare, umfangreiche Sammlung hochauflösender Fotos und Videos aus vielen Perspektiven erleichtert es KI-Systemen, täuschend echte Fake-Videos für zahlreiche Plattformen zu erstellen. (...). Die zunehmende Verrohung der Gesellschaft trägt als fundamentales Problem zusätzlich zu einem sinkenden Respekt gegenüber anderen bei.”

Deepfakes sind längst kein harmloser Internet-Gag mehr. Für Prominente können die täuschend echten, aber dennoch gefälschten Videos schwerwiegende Folgen haben: Rufschädigungen, intime Aufnahmen, die sich kaum noch stoppen lassen, oder Fake-Clips, die sich auf Social Media in Minuten verbreiten. Dazu kommen gefährliche Szenarien wie Identitätsmissbrauch, Betrug oder sogar Erpressung.

Lucas Prandi, Rechtsanwalt und Fachanwalt für IT-Recht bei beyond Rechtsanwälte: „Privatpersonen und Prominente sind nicht schutzlos. Die Nutzung fremder Bilder oder Stimmen ohne Einwilligung verletzt regelmäßig das allgemeine Persönlichkeitsrecht der betroffenen Personen. Auch Prominente genießen diesen Schutz. Insbesondere bei rufschädigenden Deepfakes sind sie nicht deshalb weniger schutzlos, weil sie in der Öffentlichkeit stehen. Deepfakes, die ihr Ansehen schädigen, begründen – wie auch für Privatpersonen – Ansprüche auf Unterlassung, Beseitigung und Schadensersatz.”

Weiter schätzt der Rechtsexperte ein: „Rufschädigende oder ehrverletzende Deepfakes können zu hohen Schadensersatzforderungen führen. Insbesondere bei pornografischen Inhalten sind die Strafen besonders hoch, wenn durch sie betroffene Personen gezielt diffamiert oder andere Personen getäuscht oder geschädigt werden sollen.”

Streaming Tipp
Are You The One - Realitystars in Love
Jetzt auf RTL+ streamen

Lese-Tipp: Sophia Thomalla total verknallt! Hier knutscht sie ihren Alex

Was tun, wenn ich selbst in einem Deepfake auftauche? Beweise sichern! Link kopieren, Screenshots machen, alles abspeichern. Nichts löschen lassen, bevor es dokumentiert ist.
Ebenfalls wichtig: Plattform melden. Egal ob TikTok, Instagram oder Facebook: „Deepfake“ oder „Identitätsmissbrauch“ angeben – dann reagieren die Seitenbetreiber schneller. Zudem sollten Betroffene ihr persönliches Umfeld wie Freunde und Familie warnen, dass Deepfakes im Umlauf sind.

Rechtsanwalt Prandi warnt: „Auch das Weiterleiten eines Deepfakes kann strafbar sein. Wer ein solches Video teilt, riskiert selbst empfindliche Strafen oder die eigene Inanspruchnahme durch die Betroffenen.“

Verwendete Quellen: Leak.red, RTL