Deepfakes im Strafrecht – Fiktion oder reale Gefahr?
Artikel von Rechtsanwältin Aileen Pavlić LL.B.
Die rasante Entwicklung künstlicher Intelligenz bringt nicht nur Innovationen, sondern auch neue Herausforderungen für das Strafrecht mit sich. Besonders sogenannte Deepfakes – täuschend echte Video- oder Audioaufnahmen, die mittels KI manipuliert wurden – werfen brisante strafrechtliche Fragen auf. Sind sie nur ein technisches Kuriosum oder eine reale Gefahr für Persönlichkeitsrechte, die öffentliche Sicherheit und die Strafverfolgung?
Was sind Deepfakes?
Deepfakes sind mediale Inhalte, bei denen das Gesicht oder die Stimme einer Person mit Hilfe künstlicher Intelligenz realitätsgetreu verändert wird. Das bekannteste Beispiel: Eine Person sagt oder tut in einem Video scheinbar etwas – obwohl sie das in Wirklichkeit nie getan hat. Die Manipulation ist für Laien meist kaum zu erkennen.
Deepfakes als strafrechtliches Problem
Während Deepfakes ursprünglich eher aus dem Bereich der Unterhaltung oder Satire bekannt waren, mehren sich inzwischen Fälle, in denen diese Technologie gezielt zu kriminellen Zwecken eingesetzt wird:
Rufschädigung & Verleumdung (§§ 185 ff. StGB): Gefälschte Videos, in denen Personen beleidigende oder strafbare Aussagen treffen, können ihren Ruf massiv schädigen.
Fälschung beweiserheblicher Daten (§ 269 StGB): Deepfakes könnten gezielt zur Manipulation von Beweismitteln in Strafverfahren genutzt werden.
Identitätsdiebstahl (§ 263a StGB – Computerbetrug): Mit KI-generierten Stimmen oder Videos lassen sich Identitäten imitieren, um beispielsweise Geld zu erschleichen.
Verletzung des höchstpersönlichen Lebensbereichs (§ 201a StGB): Besonders heikel: Deepfake-Pornografie mit echten Gesichtern – meist ohne Wissen der betroffenen Personen.
Strafverfolgung noch auf dem Prüfstand
Das deutsche Strafrecht kennt für viele dieser Konstellationen bereits passende Straftatbestände – jedoch fehlen klare gesetzliche Regelungen, die Deepfakes explizit erfassen. Auch Ermittlungsbehörden stehen vor praktischen Problemen: Wie erkennt man ein Deepfake? Wie beweist man dessen künstlichen Ursprung? Und wie schützt man Opfer rechtzeitig?
Beweise per Video – wie verlässlich sind sie noch?
Strafverteidigerinnen und Strafverteidiger sehen sich zunehmend mit der Frage konfrontiert, wie sicher Videobeweise in der digitalen Ära überhaupt noch sind. Wenn nahezu jeder Laie mit den richtigen Tools realistische Deepfakes erstellen kann, müssen Gerichte in Zukunft genauer hinschauen, bevor audiovisuelle Beweise als glaubwürdig gelten.
Für die Strafverteidigung bedeutet das: Die Echtheit von Beweismitteln muss kritischer geprüft und notfalls infrage gestellt werden.
Fazit: Reale Gefahr – und dringender Handlungsbedarf
Deepfakes sind längst keine Science-Fiction mehr. Sie stellen eine reale Gefahr für die Integrität strafrechtlicher Verfahren, aber auch für die Rechte und die Sicherheit von Individuen dar. Es besteht dringender gesetzgeberischer Handlungsbedarf, um Rechtsklarheit zu schaffen und die Ermittlungs- und Verteidigungsarbeit an die technologische Realität anzupassen.
Sie wurden Opfer eines Deepfakes oder sehen sich strafrechtlichen Vorwürfen auf Basis manipulierten Bildmaterials ausgesetzt?
Als Strafverteidigerin berate und verteidige ich Sie kompetent – sowohl im Umgang mit digitalen Beweismitteln als auch bei neuartigen Vorwürfen im Zusammenhang mit KI und Deepfake-Technologie.
