Tod von KI-Bildern oder Tod der Wahrheit?: Streit um Straf­bar­keit von Deep­fakes

von Leonie Schilling

24.10.2024

Die Gefahren von Deepfakes sind in aller Munde. Der Bundesrat will mittels einer neuen Strafnorm eine Antwort finden. Die Bundesregierung lehnt dies ab. Die BRAK schlägt einen dritten Weg vor. Im Internet wird hitzig diskutiert.

Im vergangenen Jahr sorgte der Fall von 20 Mädchen in Spanien für Aufsehen: Über WhatsApp wurden erschreckend realistisch wirkende Nacktaufnahmen in Gruppenchats verbreitet – sogenannte Deepnudes, die mithilfe künstlicher Intelligenz (KI) erzeugt wurden. Erstellt und verbreitet wurden die Bildnisse von Mitschülern. All diese jungen Frauen, von denen die jüngste erst 11 Jahre alt war, teilten ausschließlich vollständig bekleidete Aufnahmen auf ihren sozialen Medien. Diese Bilder wurden in eine Software gespeist, die anschließend manipulierte Darstellungen erzeugte. Schon 2019 berichtete ein Cybersicherheitsunternehmen, dass in 95 Prozent aller Deepfake-Fälle pornografische Inhalte verbreitet wurden. 

Deepfakes erzeugen täuschend echt gefälschte Videos, Bild- oder Audiodateien, in denen Personen Dinge sagen oder tun, die sie nie gesagt oder getan haben. Sie werden häufig für Desinformation, Diskreditierung oder Erpressung genutzt.

Der Kern des Problems 

Betroffene? Besonders Frauen. Die Täter wollen oft Rache oder Macht ausüben. Solche Angriffe beeinträchtigen die Würde und den sozialen Wert der Opfer schwerwiegend. Die Rechte auf Privatsphäre, informationelle Selbstbestimmung und das Recht am eigenen Bild sind betroffen.

Weiterhin werden Deepfakes auch dafür eingesetzt, um Personen im politischen Meinungswettstreit zu diskreditieren und nachteilige Stimmungen gegen sie zu schüren. Auch politische Prozesse wie Wahlen können durch Deepfakes zu Desinformationskampagnen führen. Zudem sind Unternehmen durch Deepfakes in finanziellen Angelegenheiten gefährdet, beispielsweise durch CEO-Fraud, bei den gefälschten Anweisungen zu Geldüberweisungen führen. Ein weiteres Problem: Schockanrufe mittels KI-generierter Stimmen enger Angehöriger zum Zwecke des Betruges. Umgekehrt werden Deepfakes aber auch als Ausrede für tatsächlich getätigte Aussagen genutzt, etwa von Elon Musk

Gesetzesentwurf des Bundesrates: Hoffnung auf Schutz?

Um die Persönlichkeitsrechte der Betroffenen zu stärken, legte der Bundesrat, auf Initiative des Freistaats Bayerns, einen Gesetzesentwurf zur Einführung eines neuen § 201b Strafgesetzbuch (StGB) vor (Drucksache 20/12605). Dadurch sollen Persönlichkeitsrechtsverletzungen durch Deepfakes mit bis zu 2 Jahren Freiheitsstrafe sanktioniert werden können. Im August 2024 bekräftigte der Bundesrat die Notwendigkeit dieses Gesetzes, da die Manipulation durch Deepfakes das Vertrauen in die Medien und die Demokratie untergraben könne. § 201a regelt zwar die Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen, aber eben nur von realen und nicht von generierten Bildern. 

Nach der Auffassung des Bundesrates könne ein Deepfake auch keine Beleidigung nach § 185 StGB sein, weil hier nicht der Inhalt einer Aussage bewertet werde. Kunsturhebergesetz (§ 33 KUG) und Datenschutzrecht könne zwar das unbefugte Verbreiten oder öffentliche Zurschaustellen von manipulierten Bildern pönalisieren, der spezifische Unrechtsgehalt der Dekontextualisierung und Informationsmanipulation durch Deepfakes werde jedoch nicht vollständig erfasst, so der Bundesrat. Außerdem wird in der Frage der Notwendigkeit eines neuen § 201b StGB vom Bundesrat argumentiert, dass es sich bei der computertechnischen erzeugten Äußerung nicht um eine Verletzung der Vertraulichkeit des Wortes nach § 201 StGB handeln könne. Denn die Generierung von Stimmen falle schon mangels einer tatsächlichen Äußerung einer Person nicht unter den Tatbestand. 

Der neue Tatbestand des § 201b StGB soll nach den Vorstellungen des Bundesrates Eingriffe in den höchstpersönlichen Lebensbereich durch Deepfakes bestrafen. Danach soll die Verbreitung wirklichkeitsgetreuer KI-Aufnahmen strafbar sein, wenn hierdurch das Persönlichkeitsrecht eines anderen verletzt wird.   

Der Gesetzentwurf des Bundesrates sieht Ausnahmen vor, wenn die Tatbestandserfüllung in Wahrnehmung überwiegender berechtigter Interessen erfolgen, namentlich der Kunst oder der Wissenschaft, der Forschung oder der Lehre, der Berichterstattung über Vorgänge des Zeitgeschehens oder der Geschichte oder ähnlichen Zwecken dienen. Diese Ausnahme sei wichtig, um Kunstfreiheit zu wahren, insbesondere in Bereichen wie Satire, Parodien oder anderen kreativen Ausdrucksformen, die eventuell manipulierte oder verfremdete Darstellungen von Personen beinhalten könnten.

Bundesregierung lehnt Gesetzesentwurf ab

Die Bundesregierung ist in ihrer Stellungnahme zum Gesetzesentwurf von der Notwendigkeit eines neuen § 201b StGB jedoch nicht überzeugt. Sie argumentiert, dass bestehende Gesetze bereits ausreichende Strafmöglichkeiten böten. Die Strafnormen der Verbreitung kinder- und jugendpornographischer Inhalte nach §§ 184b, 184c StGB würden KI-Bilder einschließen. Zumindest würde auch eine Strafbarkeit der Verbreitung pornografischer Inhalte (§ 184 StGB) oder die Verleumdung (§ 187 StGB) in Frage kommen, so die Bundesregierung.

Zudem wirft sie verfassungsrechtliche Bedenken hinsichtlich des Bestimmtheitsgebots auf. Die Formulierung “Wer das Persönlichkeitsrecht einer anderen Person verletzt […]” sei zu vage, um den Anforderungen des Grundgesetzes zu genügen. Weiterhin erfasse der § 33 Kunsturhebergesetz (KunstUrhG) bereits die Strafbarkeit für die Verbreitung von Bildnissen im Sinne des § 22 KunstUrhG ohne Einwilligung. Auch das Urheberrecht finde in §§ 106, 108 eine Regelung für urheberrechtlich geschützte Inhalte als Ausgangsmaterial. Ebenso könne der § 42 Abs. 2 Bundesdatenschutzgesetz (BDSG) erfüllt sein.

BRAK ebenfalls für neue Strafnorm 

Jüngst reagierte auch die Bundesrechtsanwaltskammer (BRAK) auf den Gesetzesentwurf des Bundesrates. Sie kritisiert den Entwurf, schlug aber gleichwohl einen neuen Straftatbestand vor.

Auch die BRAK kritisiert, dass das zu schützende Rechtsgut zu schwammig formuliert sei. Dem bloßen Verweis auf das Persönlichkeitsrecht fehle es an Präzision. Durch den Gesetzesvorschlag laufe man Gefahr die generelle Veröffentlichung von Bild-KI zu pönalisieren. Die Bundesrechtsanwaltskammer warnt vor den vom Bundesrat geplanten Ausnahmen als zu weitgehend. Weder Meinungs- und Pressefreiheit noch Wissenschafts- und Kunstfreiheit böten verfassungsrechtlich schützenswerte Gründe, um die Verbreitung unwahrer Tatsachenbehauptungen, einschließlich nicht erkennbarer Deepfake-Inhalte, zu rechtfertigen. Der Schutz von Satire nach Art. 5 Abs. 3 GG ende, wenn der Durchschnittsleser diese als bloße Unwahrheit und nicht als satirische Übertreibung verstehe. Auch sei fraglich, wie die Verbreitung absichtlich falscher Medieninhalte, wie etwa Deepfakes, einer privilegieren Berichterstattung über Zeitgeschehen oder Geschichte dienen könne. 

Anstelle einer neuen Norm schlägt die BRAK eine Ergänzung des § 201a StGB vor, um bestehende Regelungen zu erweitern und damit eine minimalinvasive Lösung zu schaffen. Genauer soll dies im Abs. 2 Nr. 2 geregelt werden. Danach soll die Verbreitung von wirklichkeitsgetreuen KI-Bildern nur dann strafbar sein, soweit dieser Inhalt geeignet ist, dem Abgebildeten erheblich zu schaden. Genau hier besteht die zentrale Differenz zu dem Entwurf des Bundestages: Während der Bundesrat nur eine Verletzung des Persönlichkeitsrechts verlangt, fordert die BRAK eine erhebliche Schädigung eines Dritten durch die Veröffentlichung.

Die Stellungnahme der BRAK entfachte auf LinkedIn eine hitzige Diskussion. Jörg Heinrich, Fachanwalt für IT-Recht führte an, auch der Vorschlag der BRAK sei viel zu weitreichend und ein Zusatz im Gesetz "um zu schädigen/diffamieren/politisch zu beeinflussen" oder in sexualisierter Absicht zu veröffentlichen nötig sei. Ansonsten liefe man Gefahr alles unnötig zu pönalisieren, was unter künstlich generierte Bildnisse fällt. Er bezeichnete die Gesetzesinitiative als "Tod von Bild-KI in Deutschland". Betroffene könnten sich im Rahmen des Persönlichkeitsrechts wehren. Weitere Stimmen sehen auch eine Abgrenzung zu zulässiger Kunst und Parodie als problematisch an.

KI versus KI

Rechtsanwalt Jens Ferner, selbst Mitglied des Medienausschusses des BRAK, sieht gegenüber LTO in der Technologie selbst eine mögliche Lösung für den Umgang mit Deepfake-Vorfällen. Fortschritte in der Erkennungstechnologie, insbesondere durch neuronale Netze, könnten Deepfakes künftig besser aufdecken. Das Ziel sei es, Merkmale wie asynchrones Blinzeln oder Unregelmäßigkeiten in der Darstellung zu identifizieren, um Fälschungen zu entlarven. Ferner vergleicht diesen technologischen Wettlauf mit dem gegen die Verbreitung von Kinderpornografie. Er geht davon aus, dass auch hier KI-basierte Erkennungssysteme zur Eindämmung von Missbrauch beitragen könnten. Der Wettlauf zwischen Deepfake-Generatoren und Erkennungssystemen wird wohl die zukünftige Herausforderung im Kampf gegen diese Form der digitalen Manipulation sein.

Doch allein die KI als solche erkennen zu können, lässt Persönlichkeitsrechtsverletzungen durch diffamierende Darstellung nicht immer entfallen, weil das entwürdige Bild an sich schon eine Verletzung darstellen und sich verbreiten kann.

Fraglich bleibt damit, wie in einer Zeit von voranschreitender Technik sowohl die Freiheit über die Erstellung und Veröffentlichung von Bildern mithilfe künstlicher Intelligenz gewahrt werden kann und auf der anderen Seite Opfer von Deepfakes geschützt werden können. Die Diskussion darüber ist noch lange nicht abgeschlossen.

Zitiervorschlag

Tod von KI-Bildern oder Tod der Wahrheit?: . In: Legal Tribune Online, 24.10.2024 , https://www.lto.de/persistent/a_id/55698 (abgerufen am: 27.10.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen