Mit sogenannten Deepfake-Algorithmen kann man Menschen Worte in den Mund legen, die sie nie gesagt haben, und Videos täuschend echt manipulieren. Eine Gefahr für die Demokratie, die nicht ernst genug genommen wird, meint Dimitrios Linardatos.
"President Trump is a total and complete dipshit." Ein unbedachter Zuschauer staunte 2018 nicht schlecht, als er diese Worte Barack Obama sprechen sah – so suggerierte es jedenfalls ein vom Comedian Jordan Peele produziertes Internetvideo. Eine auf künstliche Intelligenz (KI) basierende Technologie übertrug die Aussagen des Comedian auf die Gesichtszüge, Mimik und Stimme des ehemaligen Präsidenten.
Man spricht von sogenannten Deepfakes, wenn Bild-, Ton- oder Videoinhalte verblüffend authentisch erzeugt oder manipuliert werden, sodass die Inhalte wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen ähneln und einer Person fälschlich als wahrhaftig erscheinen. Peele wollte mit seinem Video aufrütteln und auf die Risiken dieser neuen Technologie aufmerksam machen, indem er zeigte, dass nicht einmal einer der berühmtesten Menschen unserer Zeit mit seinen – vermeintlich – unverkennbaren Zügen und Gesten davor gefeit ist, vor den Karren von Propagandisten gespannt zu werden. Umso verwunderlicher ist es nun zu sehen, wie die Europäische Kommission mit dem Thema Deepfake umzugehen gedenkt. Mitte April hat sie eine Verordnung "zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz" (KI-VO) vorgelegt. Ziel dieser Verordnung ist es, die Weiterentwicklung von KI-Systemen regulatorisch zu lenken, damit KI, die transformativste Technologie unserer Zeit, die "bestehenden Grundrechte und die Werte der Union" nicht gefährdet.
Hehre Ziele, die nicht mit ausreichender Entschlossenheit verfolgt werden.
Eine Offenlegungspflicht für Deepfakes – mehr nicht?
In Art. 52 der KI-VO ist nämlich zu lesen, Deepfakes wiesen nur ein untergeordnetes Risiko für die Werte der Union auf und es genüge, dem Anwender eine Offenlegungspflicht aufzuerlegen – es sei denn, die Nutzung von Deepfakes sei aufgrund der Umstände ohnehin offensichtlich. Dadurch droht ein juristisch schwer angreifbarer Freibrief für manipulative Medieninhalte. Denn im Zweifel wird sich jeder Anwender darauf berufen, die Verfälschung sei für einen aufmerksamen Beobachter ausreichend erkennbar und eine Offenlegung entbehrlich gewesen.
Die Technik birgt wegen der damit einhergehenden Desinformation enormes Gefahrenpotenzial für die demokratische Staats- und Gesellschaftsordnung. Mittelfristig wird Jedermann im Internet Deepfake-Algorithmen frei herunterladen können. Die Medienlandschaft könnte von manipulativen Inhalten regelrecht überflutet werden. Jegliche Verlässlichkeit von medialen Informationen würde verloren gehen. Für die öffentliche und politische Willensbildung ist es indes unabdinglich, dass Bürger einer Informationsquelle vertrauen können. Dafür müssen sie wahre und falsche Informationen klar unterscheiden können. Wegen der hohen Qualität der Deepfake-Software ist das durch eine Offenlegungspflicht nicht angemessen gewährleistet.
Offenlegungspflicht ist ungeeignetes Korrekturmittel
In der Politik- und Sozialforschung sowie in der Kognitionspsychologie ist die Wirkung von Falschinformationen – trotz Offenlegung – schon eindrücklich nachgewiesen worden: Menschen tendieren dazu, sich in großen Teilen auch dann auf eine falsche Information zu stützen, wenn sie korrigiert wurde und sie die Korrektur akzeptiert haben ("continued-influence effect"). Selbst die konkrete Warnung des Betroffenen, einer Fehlinformation ausgesetzt zu sein, verhindert diesen Effekt nicht.
Zudem werden durch die Verbreitung von Falschinformationen die Empfänger davon abgehalten, wahre Botschaften als solche zu erkennen. Ein offensichtlicher Grund dafür ist: Menschen halten sich lieber an jene Information, die ihre verzerrte Weltanschauung bestätigt; Warnungen bleiben in der Folge weitestgehend wirkungslos. Verstärkt werden die negativen Folgen dadurch, dass bei Deepfake-Inhalten das (politische) Anliegen des Senders verdeckt bleibt. Eigendiskreditierende Haltungen bleiben für den Empfänger dadurch unerkannt.
Hinzu kommt ein sozialgesellschaftliches Paradoxon: Je mehr Menschen es für wahrscheinlich halten, dass Medieninformationen gefälscht sein könnten, desto leichter ist es für politische Akteuren, unliebsame echte Informationen als Deepfake zu diskreditieren. In der Folge können der breiten Masse echte Informationen als gefälscht erscheinen und nicht umgekehrt. Manipulativen Akteuren wird damit ein Instrument sozialer Entropie in die Hände gespielt. Die Europäische Kommission handelt demnach inkonsequent, wenn sie auf der einen Seite proklamiert, die europäischen Werte seien hochzuhalten, sie jedoch auf der anderen Seite jene Technologien, die in politischen Kontexten folgenreich missbräuchlich verwendet werden können, nur halbherzig anpackt.
Deepfakes sind selten gerechtfertigt
Es existieren kaum Sachverhalte, in denen die Verwendung von Deepfakes sozio-gesellschaftlich oder wirtschaftlich legitim erscheint. Im Kabarett oder in Hollywoodfilmen kann es einen berechtigten Anlass geben, Medieninhalte zu manipulieren, weshalb man dort über eine Privilegierung aus Gründen der Kunstfreiheit nachdenken kann. Darüber hinaus vermag aber nicht einmal das hohe Gut der Meinungsfreiheit eine generelle Erlaubnis von Deepfakes zu rechtfertigen.
Erstens ist fraglich, ob die technische Manipulation des Bild-, Ton- oder Videoinhalts eine Meinungskundgabe darstellen kann. Die Manipulation selbst hat nämlich keinerlei Aussagegehalt, sie muss zwangsläufig den infamen Charakter des verfälschten Medieninhalts teilen. Zweitens dürfen Bürger nicht Gefahr laufen, für Aussagen verantwortlich gemacht zu werden, die sie gar nicht getätigt haben – eine Gefahr, die bei Deepfakes durchaus droht. Sie ist ernst zu nehmen, da sozialgesellschaftlich von einer Falschbehauptung immer ein Schandfleck auf einer noch so weißen Weste haften bleiben kann. Drittens ist eine Wertung in Erinnerung zu rufen, die in Deutschland vom Bundesverfassungsgericht wiederholt unterstrichen wurde: "Unrichtige Information ist unter dem Blickwinkel der Meinungsfreiheit kein schützenswertes Gut". Genau um solche unrichtige Informationen geht es aber, wenn Äußerungen mittels Deepfake in einen falschen Kontext gestellt oder einer Person untergeschoben werden.
Deepfakes stören eine freie Entscheidungsfindung
Der Verfassungsrechtler Prof. Dr. Christoph Möllers stellte einmal ganz richtig fest, ein Mehr an (gesellschaftlicher) Freiheit sei nicht allein deswegen gewährleistet, weil jede Äußerung durch die Meinungsfreiheit als geschützt gelte: Im Zentrum der Meinungsfreiheit steht die geistige Wirkung auf die Umwelt, das Überzeugen mithilfe von Argumenten. Der Empfänger einer solchen Kundgabe soll in freier Entscheidung abmessen können, ob ihn das Kundgetane überzeugt. Dieser ungestörte Entscheidungsrahmen ist Vorbedingung für eine eigenständige Persönlichkeitsentfaltung. Bei einer gezielten Täuschung durch Deepfake-Medien fehlt eine solche innere Entscheidungsfreiheit.
Die Manipulation hat den Zweck, eine Authentizität oder Vertrauenswürdigkeit in Anspruch zu nehmen, die der transportierten Information oder Botschaft in Wahrheit fehlt. Deepfake-Inhalte werden gezielt eingesetzt, um vorgeformte Weltanschauungen zu bedienen, um eine rationale Informationsbewertung gezielt auszuschalten. Gerade das verhindert eine wohlverstandene Entscheidungsfindung im Zustand innerer Freiheit.
Deswegen sei der Europäischen Kommission zugerufen: Hic Rhodus, hic salta! Deepfakes müssen entschieden reguliert werden. Sie sind zu den prinzipiell verbotenen Praktiken bei eng begrenzten Erlaubnistatbeständen – etwa für künstlerische Zwecke – zu zählen. Eine schwer korrigierbare Präzedenz für manipulative Einflussnahme können wir uns nicht leisten. Ein klares Zeichen gegen ideologische und politische Manipulation durch Algorithmen ist unabdingbar.
Der Autor Dr. Dimitrios Linardatos ist Privatdozent an der Uni Mannheim. Er arbeitet am Lehrstuhl für Bürgerliches Recht und forscht unter anderem zu rechtlichen Themen der Digitalisierung (Haftung für autonome Systeme, Robo Advice, Maschinenethik etc.).
Regulierung von Deepfakes: . In: Legal Tribune Online, 27.07.2021 , https://www.lto.de/persistent/a_id/45568 (abgerufen am: 24.11.2024 )
Infos zum Zitiervorschlag