Scarlett Johansson ist erneut das Gesicht eines Skandals — diesmal ohne ihr Wissen und gegen ihren Willen. Im März 2026 kursiert ein KI-generiertes Deepfake-Video der Schauspielerin, das sie in einer politischen Protestaktion gegen den Rapper Ye zeigt. Das Video, das von israelischen KI-Spezialisten erstellt wurde, verbreitete sich viral auf sozialen Medien. Johansson hat es nie autorisiert. Dieser Fall stellt eine entscheidende Frage: Was können Sie tun, wenn Ihre digitale Identität missbraucht wird?
Der Fall Johansson: Eine Chronik des Missbrauchs
Scarlett Johansson kämpft seit Jahren gegen die missbräuchliche Nutzung ihres Abbilds. Bereits 2024 zog OpenAI eine ChatGPT-Stimme zurück, die der Johanssons aus dem Film „Her" täuschend ähnlich klang — kurz nachdem die Schauspielerin eine entsprechende Anfrage des Unternehmens abgelehnt hatte. Johansson bezeichnete den Vorfall als "schockierend, empörend und ungläublich".
Im August 2025 ermöglichte Elon Musks Grok-KI das Erstellen von expliziten Deepfake-Videos von Johansson und Taylor Swift in Sekunden. Im März 2026 folgte das politische Deepfake-Video.
Johanssons Reaktion ist unmissverständlich: "Wir müssen den Missbrauch von KI klar benennen — oder wir riskieren, den Bezug zur Realität zu verlieren."
Was ist ein Deepfake — und warum ist das Ihr Problem?
Ein Deepfake ist ein KI-generiertes Bild, Video oder Audiostück, das eine echte Person täuschend echt imitiert. Die Technologie ist keine Zukunftsmusik mehr: Kostenlose oder günstige Apps machen es heute jedem möglich, ein überzeugendes Deepfake zu erstellen.
Laut einer Studie des Cybersicherheitsunternehmens Sumsub stiegen Deepfake-Vorfälle in Deutschland zwischen 2024 und 2025 um 310 Prozent. Betroffen sind nicht nur Prominente:
- Unternehmen erleben CEO-Fraud via gefälschte Videoanrufe
- Privatpersonen werden Opfer von Racheporno oder Rufschädigung
- Politiker und Journalisten werden mit gefälschten Aussagen kompromittiert
Was schützt Sie in Deutschland?
Deutschland verfügt über einen vergleichsweise starken Rechtsrahmen für Persönlichkeitsrechte — aber er hat Lücken.
Das Recht am eigenen Bild (§ 22 KUG, Kunsturhebergesetz) verbietet die Verbreitung von Bildnissen ohne Einwilligung der abgebildeten Person. Deepfakes fallen grundsätzlich darunter.
Das allgemeine Persönlichkeitsrecht (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG) schützt das Recht, die eigene digitale Identität zu kontrollieren. Das umfasst Stimme, Erscheinungsbild und Ausdrucksweise.
Seit 2024 gilt der EU AI Act, der bestimmte KI-Anwendungen reguliert und bei hochriskanten Systemen Transparenzpflichten einführt. Generatoren für synthetische Inhalte müssen diese nach dem Act ab 2026 kennzeichnen.
In den USA verabschiedete der Kongress Anfang 2026 den „Take It Down Act", der strafrechtliche Konsequenzen für das Verbreiten nicht eingewilligter intimer Deepfakes einführt. Deutschland prüft vergleichbare Regelungen.
Das Graugebiet: Was noch nicht geschützt ist
Trotz des bestehenden Rechtsrahmens gibt es erhebliche Schutzlücken:
- Nicht-intime Deepfakes in politischen oder satirischen Kontexten sind schwerer zu verbieten, da sie mit der Meinungsfreiheit konkurrieren
- Technische Beweise sind schwer zu sichern: Deepfake-Videos werden schnell gelöscht oder modifiziert
- Internationale Täter sind kaum zu belangen, wenn die Server im Ausland stehen
- Plattformhaftung ist begrenzt — soziale Netzwerke reagieren oft erst nach Meldungen
Johansson selbst sagte: "Es gibt im Grunde nichts, was jemanden daran hindert, mein Bild zu missbrauchen."
Was tun, wenn Sie Opfer eines Deepfakes werden?
Experten empfehlen folgende Sofortmaßnahmen:
1. Beweise sichern Screenshots, URLs und Zeitstempel sofort sichern — bevor das Material gelöscht wird. Notarielle Beglaubigung erhöht den Beweiswert.
2. Plattform melden Alle großen Plattformen haben Meldeformulare für Persönlichkeitsrechtsverletzungen. Reagieren Sie unmittelbar, um die Verbreitung zu stoppen.
3. IT-Spezialist hinzuziehen Forensische IT-Experten können den Ursprung von Deepfakes zurückverfolgen, Metadaten analysieren und technische Gutachten erstellen — entscheidend für juristische Schritte.
4. Rechtliche Schritte prüfen Ein Rechtsanwalt für IT-Recht oder Persönlichkeitsrechte kann Unterlassungsansprüche, Schadensersatz und strafrechtliche Anzeigen prüfen. Die Fristen für einstweilige Verfügungen sind kurz — schnelles Handeln ist entscheidend.
Die Rolle des IT-Spezialisten im Deepfake-Zeitalter
Für Unternehmen ist die Deepfake-Bedrohung längst operationell. CEO-Fraud via gefälschter Videokonferenz hat in Deutschland Unternehmen in den vergangenen Jahren Millionenbeträge gekostet. Die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) warnte 2025 explizit vor Deepfake-basierten Betrugsmaschen im Finanzsektor.
Ein IT-Sicherheitsexperte kann Unternehmen dabei helfen:
- Deepfake-Erkennungstools in ihre Kommunikationsprozesse zu integrieren
- Mitarbeiter für die Erkennung von KI-generierten Inhalten zu schulen
- Verifizierungsprotokolle für Videoanrufe einzurichten
Wie erkenne ich ein Deepfake?
Die Qualität von KI-generierten Videos steigt rasant — aber es gibt noch Hinweise, auf die Sie achten können:
- Unnatürliche Augen: Blinzeln, Augenbewegungen oder Lichtreflexe wirken oft merkwürdig
- Unscharfe Ränder: Besonders an Haaren, Ohren oder Kragen entstehen oft Artefakte
- Asynchroner Ton: Lippensynchronisation ist bei älteren Deepfakes oft leicht versetzt
- Unnatürliche Hauttextur: Die Haut wirkt oft zu glatt oder hat merkwürdige Farbverläufe
Für Unternehmen gibt es inzwischen spezialisierte Softwarelösungen, die verdächtige Videos in Echtzeit analysieren können. Ein IT-Spezialist kann die für Ihr Unternehmen passende Lösung empfehlen und implementieren.
Fazit: Nicht nur ein Celebrity-Problem
Was Scarlett Johansson erlebt, ist heute für jeden denkbar. Die Technologie ist frei verfügbar, die Rechtslage ist komplex und die Plattformen reagieren zu langsam. Wer sein digitales Ich schützen will — ob als Privatperson, Unternehmer oder Führungskraft — sollte jetzt handeln, bevor es zum Ernstfall kommt.
Ein IT-Spezialist oder ein Anwalt für digitale Rechte kann Ihnen helfen, präventive Maßnahmen zu ergreifen und im Schadenfall schnell zu reagieren. Das Deepfake-Zeitalter ist keine Zukunftsvision — es ist die Realität von März 2026.
Hinweis: Dieser Artikel ersetzt keine rechtliche oder technische Fachberatung. Bei konkretem Verdacht auf Persönlichkeitsrechtsverletzung wenden Sie sich an einen Fachanwalt für IT-Recht oder einen zertifizierten IT-Sicherheitsexperten.
