Die EU-Kommission will mit einer neuen Verordnung die Online-Verbreitung von Terror-Inhalten verhindern. Die richtige Balance zwischen staatlicher Aufsicht und privater Rechtsdurchsetzung gelingt ihr damit aber nicht, meint Nima Mafi-Gudarzi.
Die neuen Pläne aus Brüssel dürften in Deutschland Erinnerungen wachrufen. Das Netzwerkdurchsetzungsgesetz (NetzDG) hat in Deutschland zuletzt für große Verwerfungen gesorgt: Viele befürchteten, im Kampf gegen Hassrede könnte sich ein ausuferndes Overblocking und ein "Chilling Effect" für die Meinungsfreiheit einstellen. Ein eindeutiger Befund steht aber noch aus.
Nun legt die EU-Kommission einen Entwurf vor, der die Verbreitung von terroristischer Propaganda auf Online-Plattformen verhindern soll. Ein Blick in den Entwurf zeigt: Die Kommission ist gewillt, nicht die gleichen – vermeintlichen – Fehler des NetzDG zu begehen. So sollen nicht Private, sondern staatliche Behörden entscheiden, was ein terroristischer Inhalt ist und was gelöscht werden muss. Paradoxerweise könnte die Kommission aber das Gegenteil bewirken: dass Plattformbetreiber die Entscheidungen umfänglich privatisieren.
Paradigmenwechsel für Online-Plattformen
Als im Jahr 2000 die E-Commerce-Richtlinie verabschiedet wurde, herrschte EU-weit das Bild der neutralen, unmoderierten Online-Plattform vor. Der Anbieter stellte den technologischen Rahmen, den Content lieferten die Nutzer. Auf dieser Annahme basierte das von der EU geschützte, von der Haftung weitgehend befreite Geschäftsmodell der Betreiber. Nun scheint sich mit dem Kommissionsentwurf ein Paradigmenwechsel zu vollziehen: Diensteanbieter tragen danach eine gesellschaftliche Verantwortung für die Inhalte auf ihren Plattformen und müssen diese grundsätzlich überwachen. Das kommt in den Erwägungsgründen 3 und 19 zum Ausdruck, wenn auch die Kommission in Erwägungsgründen 5 und 12 den Eindruck zu entkräften versucht.
Diese Neujustierung ist einer gesellschaftlichen und technologischen Entwicklung geschuldet. Zum einen prägt die Nutzung von Plattformen wie Facebook, YouTube und Twitter in unserer Informationsgesellschaft zunehmend den öffentlichen Meinungsbildungsprozess. Zum anderen begnügen sich die Betreiber nicht mit einer rein passiven Rolle, sondern sind dank algorithmischer Steuerung in der Lage, fremde Inhalte gezielt zu klassifizieren, zu selektieren, zu filtern und zu priorisieren.
Bußgeld bis zu 4 Prozent des globalen Jahresumsatzes
Die Kommission fasst mit der Terror-Propaganda eine Kategorie von Inhalten ins Auge, deren zersetzende Kraft gesellschaftlich anerkannt ist. Der Begriff der terroristischen Inhalte umfasst Materialien und Informationen, mit denen zu terroristischen Straftaten aufgerufen oder angespornt bzw. sich dafür ausgesprochen wird, die Anweisungen für die Begehung solcher Straftaten enthalten oder für die Beteiligung an Aktivitäten einer terroristischen Vereinigung werben (Art. 2 Abs. 5 VO-Entwurf; siehe auch Richtlinie 2017/541 zur Terrorbekämpfung).
Die Bürde, die terroristische Qualität eines Inhalts korrekt einzuschätzen, tragen nicht die Plattformbetreiber, sondern die von den Mitgliedsstaaten zu bestimmenden Behörden (Art. 4, 17 VO-Entwurf). Ab elektronischer Zustellung einer zu begründenden Entfernungsanordnung bleibt dem Plattformbetreiber eine Stunde, den Inhalt zu löschen oder den Zugang hierzu zu sperren. Um der Pflicht Nachdruck zu verleihen, sollen die Mitgliedsstaaten systematische Verstöße mit Bußgeldern in Höhe von bis zu vier Prozent des globalen Jahresumsatzes ahnden können (Art. 18 VO-Entwurf, Erwägungsgrund 38).
Der staatliche Lösch-Primat als Gefahr?
So begrüßenswert es einerseits ist, derart komplexe Wertungen nicht den privaten Anbietern zu überlassen, so unbehaglich stimmt andererseits die Vorstellung, dass Mitgliedsstaaten, in denen rechtsstaatliche Prinzipien ins Wanken geraten, solche Interpretationsspielräume missbrauchen könnten, um etwa unliebsame Berichterstattung oder Satire zu unterdrücken. Betroffene Inhalteanbieter mit einem Hinweis durch den Plattformbetreiber auf die erfolgte Löschung – und einer Begründung auf Nachfrage – abzuspeisen (Art. 11 VO-Entwurf), genügt jedenfalls nicht im Sinne der Meinungsfreiheit den Anforderungen an einen effektiven Rechtsschutz.
Die Verordnung begnügt sich nicht mit dem Mechanismus "Löschen-auf-Anordnung": Behörden sollen die Betreiber auch auf solche Materialien hinweisen können, die als "terroristischer Inhalt gewertet werden könnten", um diese dann auf Vereinbarkeit mit den eigenen Nutzungsbedingungen zu überprüfen (Art. 5, 2 Abs. 8 VO-Entwurf). Die Kommission möchte bei den Betreibern ein Bewusstsein über die Art der bei ihnen auffindbaren Inhalte schaffen und ihnen insoweit die Letztentscheidung überlassen (vgl. Erwägungsgrund 15).
Diese Regelung sollte ersatzlos gestrichen werden. Denn wenn eine Behörde nach sorgfältiger Prüfung eines Inhalts nicht zu dem Ergebnis kommt, dass er gesetzeswidrig ist, so ist das Verfahren schlicht und ergreifend einzustellen. Der Staat muss und darf sich hingegen nicht als Erfüllungsgehilfe privater Plattformbetreiber andienen, damit diese effektiver ihre AGB durchsetzen können. Die Anbieter dürfen zwar grundsätzlich im Rahmen ihres virtuellen Hausrechts autonom darüber entscheiden, welcher Art von Beiträgen sie ihr Forum öffnen und dabei auch restriktiver vorgehen als der unmittelbar grundrechtsgebundene Staat. Nichtsdestotrotz wäre es ein mit der Meinungsfreiheit kaum zu vereinbarendes Novum, wenn staatliche Stellen zur Löschung nicht zu beanstandender Inhalte geradezu anstiften würden.
KI zur privaten Rechtsdurchsetzung
Des Weiteren verlangt die Kommission die Ergreifung proaktiver Maßnahmen, um die Verbreitung terroristischer Inhalte eigenständig zu verhindern (Art. 6 VO-Entwurf). Hierzu kann auch der Einsatz automatisierter Werkzeuge zählen, also Upload- und Screeningfilter (vgl. Art. 6 Abs. 2 VO-Entwurf).
Der Einsatz künstlicher Intelligenz zur Unterdrückung von Inhalten ist hoch umstritten und doch schon längst Realität: So konnte im ersten Quartal 2018 Facebook 99,5% aller 1,9 Mio. Inhalte, die nach den AGB als Terror-Propaganda gelten, aufdecken, ehe ein Nutzer diese überhaupt gemeldet hat. Der Entwurf der Verordnung möchte die Gefahr unverhältnismäßiger Löschungen durch die Einforderung regelmäßiger Berichte zur Funktionsweise der automatisierten Tools sowie menschlicher Aufsicht begegnen (siehe auch Erwägungsgründe 17 f.). Wie der Mensch der Flut fragwürdiger Inhalte in der Praxis tatsächlich Herr werden kann, ist indes schwer vorstellbar.
Die Anbieter wären zudem auch nicht verpflichtet, die staatlichen Stellen über jeden gefundenen Terror-Inhalt zu informieren (vgl. Art. 13 Abs. 4 VO-Entwurf nur in Bezug auf Terror-Straftaten). Handeln alle Plattformbetreiber sehr effizient, möglicherweise überobligatorisch, gäbe es dann kaum noch terroristische Inhalte, deren Entfernung die Behörden anordnen müssten – ganz einfach, da sie sie nie zu Gesicht bekommen. Der Primat des Staates liefe ins Leere.
Zwar sollen die betroffenen Inhalteanbieter die Möglichkeit der Beschwerde gegen private Lösch-Entscheidungen erhalten (Art. 10 VO-Entwurf). Doch auch hier mangelt es an der gebotenen Sicherstellung, den Rechtsweg beschreiten zu können.
Weiter Anwendungsbereich erfasst auch Streaming- und Lieferdienste
Bemerkenswert ist ferner, dass die Kommission nicht nur die Betreiber großer sozialer Netzwerke, sondern sämtliche Hosting-Anbieter ins Visier nimmt, die Informationen von Inhalteanbietern speichern und Dritten zugänglich machen (Art. 2 Abs. 1 VO-Entwurf). Beispielsweise erfasst wären Streaming-Diensteanbieter, Cloud-Dienste und Webseiten mit Kommentarfunktionen (Erwägungsgrund 10). Hinzu kommen Dienste, über die man Waren und Dienstleistungen bestellen kann (Erwägungsgrund 11), was konsequent sämtliche Lieferservice und Verkaufsplattformen einschließen würde.
Nicht alle Plattformbetreiber müssten aber zwingend proaktiv tätig werden, sondern nur "gegebenenfalls", unter Berücksichtigung des jeweiligen Risikos, für solche Zwecke missbraucht zu werden (Art. 6 Abs. 1 VO-Entwurf). In der Tat dürfte die Gefahr, dass Terror-Propaganda sich etwa in Nutzerbewertungen bei Ebay oder in Beiträgen auf Xing Bahn bricht, nicht allzu virulent sein. Die Kommission könnte allerdings jegliche Rechtsunsicherheit im Keim ersticken, indem sie die Überwachungspflicht eindeutig auf soziale Netzwerke ab einer gewissen Größenordnung beschränkt. Denn nur solche Plattformen, auf denen Nutzer beliebigen Content einspeisen und mit hoher Reichweite viral verbreiten können, eignen sich überhaupt für terroristische Propaganda.
Die Europäische Kommission hat mit ihrem Entwurf regulatorisches Neuland betreten. Dass in der auslaufenden Legislaturperiode die Verordnung noch zustande kommt, ist ungewiss. Änderungen sind allerdings auf jeden Fall geboten, um die Online-Wirtschaft nicht unverhältnismäßig zu belasten und einem Anreiz zu Overblocking und einer tendenziellen Abkühlung der Meinungsfreiheit vorzubeugen. Andernfalls dräut dem Verordnungsgeber am Ende die Wehklage: "Die ich rief, die Geister, werd ich nun nicht los."
Der Autor Nima Mafi-Gudarzi, LL.M., ist wissenschaftlicher Mitarbeiter am Institut für Medienrecht und Kommunikationsrecht an der Universität zu Köln. Sein Forschungsschwerpunkt liegt auf dem rechtlichen Umgang mit sozialen Netzwerken.
Der Kampf gegen Terror-Propaganda auf Online-Plattformen: . In: Legal Tribune Online, 18.09.2018 , https://www.lto.de/persistent/a_id/30997 (abgerufen am: 05.11.2024 )
Infos zum Zitiervorschlag