Deepfakes sind KI-generierte Medieninhalte, die Gesichter und Stimmen von Personen so überzeugend imitieren oder ganze Videos manipulieren, dass sie kaum von echten Aufnahmen zu unterscheiden sind.
Was harmlos klingt, wird zum Problem: Ursprünglich für Unterhaltung und Forschung entwickelt, werden diese Fälschungen heute für betrügerische Zwecke, Desinformation und Identitätsdiebstahl eingesetzt.
In diesem Artikel erfährst du, was Deepfakes sind, wie sie funktionieren, woran du sie erkennst – und wie du dich effektiv davor schützt.
Was sind Deepfakes?
Der Begriff „Deepfake“ setzt sich aus „Deep Learning“ (maschinelles Lernen) und „Fake“ (Fälschung) zusammen und beschreibt durch künstliche Intelligenz generierte Videos, Bilder und Audioaufnahmen.
Deepfake Definition: engl. Kofferwort aus den Begriffen „Deep Learning” und „Fake” beschreibt täuschend echte Medieninhalte, die durch künstliche Intelligenz erzeugt oder manipuliert werden. Dabei werden Gesichter, Stimmen oder Handlungen einer Person imitiert oder verändert, um hyperrealistische Fälschungen zu erzeugen.
Das Ergebnis: Inhalte, die real wirken, aber nie so passiert sind. Eine Person scheint etwas zu sagen oder zu tun, obwohl es diese Aufnahme in Wirklichkeit nie gab.
Seit 2017 hat sich die Deepfake-Technologie rasant weiterentwickelt. Moderne Systeme analysieren Gesichter, Mimik, Sprache, Bewegungen und Kontext – und erzeugen Fälschungen, deren Qualität so hoch ist, dass sie mittlerweile kaum als solche zu erkennen sind. Laut einer Studie von Surfshark wurden allein im ersten Halbjahr 2025 rund 580 Deepfake-Vorfälle gemeldet – fast viermal so viele wie im gesamten Jahr 2024.
Wie funktioniert Deepfake-Technologie?
Die zugrunde liegende Deepfake-Technologie basiert auf der Kombination von künstlicher Intelligenz und neuronalen Netzwerken, insbesondere sogenannten Generative Adversarial Networks (GANs).
Diese bestehen aus zwei Komponenten:
- Generator: erstellt neue Inhalte
- Diskriminator: bewertet die Qualität
Durch die Zusammenarbeit dieser beiden Komponenten verbessert sich die Qualität der erzeugten Inhalte rasant und kontinuierlich.
Für die Erstellung werden große Datenmengen benötigt, etwa Videos, Fotos oder Audiodateien. Je mehr Bild- oder Videomaterial einer Person vorhanden sind, desto realistischer wird das Ergebnis.
Typische Deepfake-Methoden
Deepfakes nutzen verschiedene Methoden bzw. Technologien, die je nach Anwendung und Ziel eingesetzt werden.
- Face Swapping: Gesichter werden ausgetauscht
- Voice Cloning: Stimmen werden imitiert
- Video-Manipulation: Bewegungen werden angepasst
Diese Methoden werden häufig kombiniert, um besonders überzeugende Ergebnisse zu erzeugen.
Dabei kommen fortschrittliche KI-Modelle, maschinelles Lernen und andere Technologien zum Einsatz, die komplexe Muster in Gesichtern, Sprache und Bewegungen einer Person analysieren und nachbilden können.
Sind Deepfakes legal?
Deepfakes sind in Deutschland nicht grundsätzlich illegal – entscheidend sind vielmehr konkrete Anwendung und Einsatz.
Problematisch wird es, wenn sie:
- Persönlichkeitsrechte verletzen
- für gezielte Täuschung eingesetzt werden
- rufschädigend oder verleumderisch sind
- ohne Einwilligung intimen Content verbreiten
- zur politischen Manipulation genutzt werden
Relevante gesetzliche Grundlagen:
- §201a StGB
- §201b StGB (geplanter Gesetzentwurf – noch nicht verabschiedet, Stand: April 2026)
Internationale Unterschiede
- Deutschland & EU: bestehende Gesetze + neue Regulierung (z. B. EU AI Act)
- USA: einzelstaatliche Regelungen
- Großbritannien: Fokus auf Missbrauch
- China: Kennzeichnungspflicht für KI-Inhalte
Bekannte Deepfake-Beispiele
Von prominenten Personen bis hin zu alltäglichen Betrugsmaschen wird deutlich: Deepfakes sind längst kein theoretisches Risiko mehr. Zahlreiche reale Fälle zeigen, wie weit die Technologie bereits verbreitet ist – und welches Missbrauchspotenzial damit einhergeht. Neben finanziellen und beruflichen stehen vor allem die persönlichen Folgen im Fokus – etwa Reputationsverlust, Eingriffe in die Privatsphäre und ein nachhaltiger Vertrauensbruch.
Der Fall Collien Fernandes
Ein viel diskutierter Fall aus den deutschsprachigen Medien zeigt, wie real die Gefahr durch Deepfakes inzwischen ist. Die Schauspielerin und Moderatorin Collien Fernandes machte im März 2026 öffentlich, dass manipulierte Bilder und Videos im Umlauf waren, in denen ihr Gesicht und ihre Stimme mithilfe von Deepfake-Techniken wie Face Swapping täuschend echt imitiert wurden.
Die Fake-Bilder und -Videos wurden ohne ihr Wissen verbreitet und verdeutlichen, wie einfach sich Identitäten heute zweckentfremden lassen. Besonders betroffen sind häufig Frauen, die Ziel solcher digitalen Angriffe werden.
Der Fall hat eine breite Debatte über den rechtlichen Umgang mit Deepfakes in Deutschland ausgelöst – unter anderem über den geplanten §201b StGB, der solche Fälschungen gezielt unter Strafe stellen soll. Denn obwohl die Auswirkungen für Betroffene gravierend sein können, bewegen sich viele dieser Fälle noch in einer rechtlichen Grauzone, die Täter sind nur schwer strafrechtlich zu verfolgen.
Deepfakes und digitale Missbräuche (Italien)
Auch international sorgen Deepfakes für Schlagzeilen: So wurde in Italien über den Deepfake-Fall rund um die italienische Ministerpräsidentin Giorgia Meloni berichtet, bei dem KI-generierte Fälschungen ohne Zustimmung verbreitet wurden. Meloni forderte 100 000 Euro Schadensersatz. Der Fall machte deutlich, wie ernst die juristischen und ethischen Fragen im Bereich der Deepfake-Entwicklung sind – insbesondere wenn sie gezielt zur Diffamierung eingesetzt werden.
Deepfake-Betrug durch Voice Cloning („Kidnapping“-Scams)
Ein weiteres Beispiel sind sogenannte Voice-Scams. Bei dieser Art von Technologie werden mithilfe von Voice Cloning Stimmen imitiert, um Menschen zu täuschen. Betroffene erhalten scheinbar echte Anrufe oder Sprachnachrichten von Familienmitgliedern, die angeblich entführt wurden oder in Not sind. Ziel solcher Angriffe ist es, Angst zu erzeugen und schnelle Geldüberweisungen zu erzwingen.
Deepfake-Videoanruf-Betrug (Arup-Fall)
In einem besonders aufsehenerregenden Fall wurden Mitarbeitende des britischen Ingenieurbüros Arup während eines Videoanrufs durch täuschend echte KI-Fälschungen dazu gebracht, rund 25 Millionen US-Dollar (ca. 23 Millionen Euro) zu überweisen. Der Fall zeigt, dass manipulierte Medieninhalte nicht nur im Internet, sondern auch in geschäftlichen Kontexten ein ernstzunehmendes Risiko darstellen.
Deepfakes erkennen
Auch wenn die Fälschungen immer besser werden, gibt es typische Hinweise, an denen man sie erkennen kann:
Auffällige Mimik
- unnatürliche oder verzögerte Gesichtsausdrücke
- ungewöhnliche Augenbewegungen
Probleme bei Audio und Ton
- monotone oder künstlich klingende Stimmen
- leichte Timing-Abweichungen
Visuelle Unstimmigkeiten
- falsche Beleuchtung
- unnatürliche Schatten
- verzerrte Hintergründe
Kontext prüfen
Wenn Bilder, Texte oder Video einer Person ungewöhnlich oder emotional aufgeladen wirken, solltest du sowohl den Kontext, als auch die Quelle stets kritisch hinterfragen.
Wie kannst du dich vor Deepfakes schützen?
Ein wichtiger Baustein beim Schutz vor Deepfake-Missbrauch ist deine digitale Privatsphäre.
VPN-Dienste wie Surfshark helfen dabei, deine Identität im Netz besser zu schützen – etwa durch verschlüsselte Verbindungen und zusätzliche Features wie Alternative ID. Tools wie Incogni gehen noch einen Schritt weiter, indem sie persönliche Daten aus Datenbanken entfernen.
Digitalen Fußabdruck minimieren
Je größer dein digitaler Fußabdruck ist, also je mehr persönliche Informationen, Bilder oder Videos von dir im Internet verfügbar sind, desto einfacher wird es für Angreifer, überzeugende Fälschungen zu erstellen.
Deshalb gilt:
- Keine privaten Bilder oder Fotos ins Netz stellen
- Privatsphäre-Einstellungen nutzen
- alte Accounts und Daten regelmäßig überprüfen
- Teile möglichst wenige persönliche Informationen öffentlich
Skeptisch bleiben
Darüber hinaus ist es wichtig, bei ungewöhnlichen Anfragen skeptisch zu bleiben. Gerade wenn es um Geld, sensible Informationen oder Zeitdruck geht, solltest du zumindest einen zweiten Kanal zur Verifizierung nutzen.
Accounts absichern
Auch technische Schutzmaßnahmen wie Zwei-Faktor-Authentifizierung tragen dazu bei, Accounts besser abzusichern – selbst wenn Daten kompromittiert wurden.
Deepfake vs. Detection: ein technologisches Wettrüsten
Während Deepfakes immer besser werden, entwickeln sich auch technische Möglichkeiten und Methoden für ihre Erkennung weiter.
Deepfake-Detection-Tools analysieren:
- visuelle Muster
- Videoartefakte
- Audio- und Sprachunregelmäßigkeiten
Trotzdem stößt selbst die fortschrittlichste Erkennungstechnologie an ihre Grenzen – die Verantwortung liegt daher auch bei Nutzer:innen.
Der Einfluss auf Social Media: Alles fake?
Deepfakes verändern grundlegend, wie wir Medien und digitalen Inhalten vertrauen. Wenn nicht mehr eindeutig erkennbar ist, ob ein Bild oder Video echt ist, gerät die Basis unserer Meinungsbildung ins Wanken.
Auf Social Media verstärkt sich dieses Problem zusätzlich: Manipulierte Videos und Inhalte verbreiten sich oft schneller als ihre Korrektur – und erreichen so in kürzester Zeit ein Millionenpublikum.
Das führt zu einem Phänomen, das als „Liar’s Dividend“ bezeichnet wird: Selbst echte Aufnahmen werden angezweifelt, weil sie theoretisch auch gefälscht sein könnten. Die Folge: Das Vertrauen in Medien und Berichterstattung wird systematisch untergraben.
Die Auswirkungen sind bereits messbar: Laut einer aktuellen Analyse von Surfshark beliefen sich die finanziellen Verluste durch KI-gestützten Betrug allein im Jahr 2025 weltweit auf rund 1,1 Milliarden US-Dollar (von insgesamt 1,5 Milliarden US-Dollar seit 2017) – ein dreifacher Anstieg im Vergleich zum Vorjahr. Besonders betroffen ist ausgerechnet der Bereich, in dem sich Informationen am schnellsten verbreiten: Social Media.
Deepfakes: Reale Gefahren für Gesellschaft und Sicherheit
Sie sind längst kein Zukunftsszenario mehr – sie bergen erhebliche Risiken und bringen ernstzunehmende Gefahren hinsichtlich der Online-Sicherheit mit sich.
- Cyberangriffe und Identitätsdiebstahl
Besonders problematisch ist ihr Einsatz in Cyberangriffen, Betrugsmaschen und zur gezielten Manipulation. Häufig sind sie Teil komplexer Scams, bei denen Angreifer das Ziel verfolgen, an Geld oder sensible Informationen zu gelangen.
Auch Identitätsdiebstahl spielt eine zentrale Rolle: Stimmen werden imitiert und Gesichter durch Face Swap-Technik ausgetauscht, um Menschen zu täuschen und ihr Vertrauen auszunutzen. In manchen Fällen münden solche Angriffe sogar in Doxxing – dem gezielten Veröffentlichen persönlicher Daten, um Personen zu schädigen oder unter Druck zu setzen.
- Manipulation und Fake News
Darüber hinaus gewinnen auch wahlbezogene Deepfakes zunehmend an Bedeutung. Sie können von Menschen genutzt werden, um Propaganda zu betreiben, Fake News zu verbreiten und so die öffentliche Meinung gezielt zu beeinflussen.
- Finanzielle Schäden durch Deepfakes
Was früher wie Science-Fiction klang, hat längst reale Auswirkungen: Schäden durch Deepfake-Technologie belaufen sich laut einer Surfshark-Analyse inzwischen sogar auf mehr als 1,5 Milliarden US-Dollar (rund 1,3 Milliarden Euro). Diese Entwicklung zeigt, wie schnell sich das Problem ausbreitet, welche Gefahren es mit sich bringt – und wie wichtig es ist, sich aktiv zu schützen.
Fazit: Deepfakes erkennen und sich effektiv schützen
Deepfakes entwickeln sich schneller als die Gesetze, die sie regulieren sollen. Der beste Schutz ist eine Kombination aus technischem Wissen, gesunder Skepsis und einem möglichst kleinen digitalen Fußabdruck. Wer versteht, wie Deepfakes funktionieren, erkennt sie leichter – und macht es Angreifern deutlich schwerer.
Häufig gestellte Fragen
Deepfakes: Was ist das?
Ein Deepfake ist eine mithilfe von künstlicher Intelligenz (KI) erzeugte Fälschung, die täuschend echt wirkt. Dabei können Texte generiert, Gesichter ausgetauscht und Videos, Bilder oder Audio so verändert werden, dass Personen Dinge sagen oder tun, die in Wirklichkeit nie passiert sind. Die Technologie wird zunehmend für betrügerische Zwecke zweckentfremdet.
Deepfake Gesetz Deutschland – was gilt?
Sie sind in Deutschland nicht grundsätzlich illegal. Entscheidend ist der Einsatz: Werden Persönlichkeitsrechte verletzt, Inhalte ohne Zustimmung verbreitet oder für Betrug genutzt, können strafrechtliche Konsequenzen folgen – etwa nach §201a StGB.
Ist es illegal, Deepfakes zu schauen?
Nein, das reine Anschauen von Deepfakes ist in der Regel nicht strafbar. Problematisch wird es, wenn eine Person manipulierte Texte, Bilder oder Videos verbreitet oder sie bewusst für Täuschung und Betrug verwendet.
Was sind die Merkmale von Deepfakes?
Egal ob in Form eines Videos, Bildes oder Audios – Fälschungen lassen sich oft an bestimmten Auffälligkeiten erkennen, auch wenn die Technologie immer besser wird. Typische Merkmale sind unnatürliche oder leicht verzögerte Gesichtsausdrücke, fehlerhafte Lippenbewegungen oder unregelmäßige Augenbewegungen. Auch Audio kann Hinweise geben, etwa durch eine monotone oder leicht künstlich klingende Stimme.
