Freiheit und Verantwortung Sozialer Medien: Für eine posi­tive soziale Medi­en­ord­nung

Gastbeitrag von Prof. Dr. Christoph Wagner

31.08.2022

Soziale Netzwerke und Video-Plattformen werden immer meinungsmächtiger. Christoph Wagner sieht sie in der Verantwortung, auch der öffentlichen Meinungsbildung zu dienen und diskutiert u.a. einen separaten Newsfeed mit Public-Value Inhalten.

Dass die Kommunikation über soziale Medien im Extremfall die Grundfesten der Demokratie erschüttern kann, zeigte nicht zuletzt der Sturm auf das Kapitol in Washington, der – wie gerade aufgearbeitet – von dutzenden Tweets (Twitter) mit behaupteten Wahlfälschungen mobilisiert und über soziale Medien von langer Hand koordiniert wurde.  

Die Nutzung sozialer Medien wächst unaufhörlich. Jüngere Menschen bis etwa 40 Jahren beziehen ihre Nachrichten und Informationsinhalte heute primär über soziale Medien und nur nachrangig über linearen Rundfunk oder Zeitungen. Nur bei den über 60-Jährigen überwiegt der klassische Fernsehempfang noch deutlich.  

Und das hat Folgen. Drastische Beispiele für die – wahlbeeinflussende – Auswirkung der Kommunikation in sozialen Medien gibt es inzwischen viele. Das bekannteste unter ihnen ist wohl das Rezo-Video zur "Zerstörung der CDU". Auch das Bundesverfassungsgericht misst dem wichtigsten sozialen Netzwerk in Deutschland daher "überragende Bedeutung" für die wahlvorbereitende politische Kommunikation bei.  

Das BVerfG hat früh Presse und Rundfunk als "Medium und Faktor" der öffentlichen Meinungsbildung eingeordnet. Das gilt heute auch für Soziale Medien. Das heißt, sie dienen nicht nur als Kommunikationsraum, sondern sind selber wahlbeeinflussender "Faktor" mit eminenter Bedeutung für den demokratischen Willensbildungs- und Meinungsbildungsprozess.  

Algorithmen fördern Hass statt Ausgewogenheit  

Die Algorithmen Sozialer Medien begünstigen tendenziell "laute" Inhalte, die Nutzende "beschäftigen, emotional berühren, aufwühlen". Das sind eher polarisierende oder populistische Inhalte und kaum je ausgewogene, maßvolle Beiträge. Reagiert ein Nutzender stark auf Inhalte mit Gewaltdarstellungen oder radikalen Äußerungen (Hassrede), erhält er durch den Algorithmus neue Vorschläge für Inhalte, die noch deutlicher in diese Richtung gehen.  

Vorhandene Neigungen und Auffassungen werden be- oder verstärkt, ohne dass der Nutzende dies unbedingt bemerkt. Der Absender solcher Beiträge sieht den Erfolg unmittelbar in Form von gesteigerten Abrufzahlen, Likes, sozialer Geltung (Follower, Freunde etc.) und ggf. auch monetären Vergütungen (YouTube). Er fühlt sich bestärkt und wird, um den Erfolg zu wiederholen oder zu vergrößern, Beiträge mit ähnlichen Tabuverletzungen oder noch deutlicherer Polarisierung einstellen.  

Die Algorithmen verstärken damit desintegrative Beiträge und hemmen integrative und auf Ausgewogenheit bedachte Beiträge, die naturgemäß eine geringere emotionale Stimulanz haben. Moderate Sprache und eine für demokratische Prozesse wichtige, auf Kompromiss angelegte Debattenkultur geht unter in scharfmachenden Formulierungen und simplifizierenden "Totschlagsargumenten".  

Der Gesetzgeber sieht die Gefahren, doch es fehlt der richtige Handlungsansatz 

Dementsprechend konstatiert die Gesetzesbegründung zum Netzwerkdurchsetzungsgesetz massive Veränderungen "des gesellschaftlichen Diskurses im Netz und insbesondere in den sozialen Netzwerken", und eine "große Gefahr für das friedliche Zusammenleben einer freien, offenen und demokratischen Gesellschaft."  

Hinzu kommt, dass Kommunikationsinhalte sozialer Medien nicht nach journalistischen Grundsätzen erzeugt werden und keinem Faktencheck unterliegen. Sie sind keinerlei Ausgewogenheitsverpflichtungen, Tendenz- oder Herausgeberdirektiven unterworfen. Inhalte werden nicht ex ante im Redaktionskollektiv durchgesprochen, sondern entstehen oft spontan, unreflektiert und sind wegen (vermeintlicher) Anonymität häufig deutlich enthemmter und aggressiver als Offline-Äußerungen. 

Man muss sich deshalb fragen, was der Gesetzgeber gegen die beschriebenen Dysfunktionalitäten sozialer Medien unternehmen kann Bekanntlich ist nach der Rundfunkrechtsprechung des Bundesverfassungsgerichts auch potenziellen Risiken für den Meinungsbildungsprozess frühzeitig zu begegnen, weil in diesem Bereich "einmal eingetretene Fehlentwicklungen, wenn überhaupt, nur bedingt und unter erheblichen Schwierigkeiten rückgängig gemacht werden können." 

Ohne positive Gestaltung des Massen-Kommunikationsraums keine demokratische Meinungsbildung und Debattenkultur  

Ob die Meinungsäußerungsfreiheit (Art. 5 Abs.1 S.1 GG) auch bei rechtlich (noch) erlaubten Äußerungen durch Gemeinschaftsstandards sozialer Netzwerke eingeschränkt werden kann, wird in der Judikatur bisher uneinheitlich beurteilt. Einzelne Urteile sehen es als zulässig an, in Einzelfällen rechtlich zulässige, aber gleichwohl inflammatorische Beiträge zu löschen und ggf. auch Nutzende auszuschließen. Andere Gerichte sehen darin eine Verletzung der Meinungsfreiheit, die hier über die Drittwirkung zur Geltung kommt.  

Das Bundesverfassungsgericht hat sich bisher nur in dem Eilverfahren der rechtsextremen Partei "Der III. Weg" mit der Frage beschäftigen können und dabei in einer reinen Folgenabwägung zugunsten des Antragstellers entschieden. Es betonte weitreichende Verpflichtungen eines dominanten Betreibers sozialer Medien, verwies aber für die eigentliche Grundrechtsanalyse auf die Entscheidung in der Hauptsache, die es mangels Antrags aber nicht geben wird.  

Im Lichte der Rundfunkurteile des BVerfG muss sich die Meinungsäußerungsfreiheit der Nutzenden keineswegs zwingend gegen die Grundrechte sozialer Medienanbieter durchsetzen, zumal hier auch das Demokratieprinzip des Grundgesetzes für eine kompromissorientierte Kommunikation streitet. Wer einen Kommunikationsraum schafft, soll dafür auch verantwortlich gemacht werden können, muss dann aber auch in der Lage sein, im Zweifel für eine demokratisch orientierte Debattenkultur zu sorgen, und nicht nur bei gerichtlich festgestellten Gesetzesverletzungen löschen dürfen.  

Im Ergebnis muss der Gesetzgeber die Leitlinien selbst vorgeben, wie die Nutzungsbedingungen gestaltet werden sollen und wie das Verfahren bei Löschungen und bei Sperrungen von Accounts ablaufen soll. Für eine solche Ausgestaltung der sozialen Medienordnung bietet der "dienende" Charakter (BVerfG) der Rundfunk- und Medienfreiheit des Art. 5 Abs. 1 S.2 GG eine geeignete dogmatische Grundlage und einen größeren Spielraum als bei Grundrechtseingriffen.  

Beim Algorithmus ansetzen – mehr Ausgewogenheit statt Polarisierung?  

Wie aber kann eine "positive soziale Medienordnung" aussehen? Die bislang einzige konkret in diesem Kontext geäußerte Idee des Bundesverfassungsgerichts, den öffentlich-rechtlichen Rundfunk finanziell und rechtlich abzusichern, kann angesichts der sinkenden Akzeptanz öffentlich-rechtlicher Sender und der beschriebenen Defizite sozialer Medien nicht ausreichen.  

Die bisherigen Ansätze und Erfahrungen mit dem NetzDG und auch die vorliegenden Entwürfe für den Digital Services Act der EU sind wichtig für den Rechtsgüterschutz (insb. Persönlichkeitsrechte und Urheberrechte). Doch die dysfunktionale Wirkungsweise sozialer Netzwerke und Gefährdungen für den demokratischen Willensbildungsprozess werden damit nicht adressiert.  

Für Soziale Medien verlangt der Medienstaatsvertrag § 93 MStV (Medienstaatsvertrag) Informationspflichten auch über die Funktionsweise der eingesetzten Algorithmen.  Von hier aus ist es (vermeintlich) ein kleiner Schritt zum Postulat, dass die algorithmischen Prozesse diskriminierungsfrei "inhaltsneutral", das heißt ausgewogener und weniger polarisierungsfördernd (also z.B. "klickneutraler") gestaltet werden müssen.  

Die Umsetzung ist allerdings leichter gesagt als getan, zumal es hier um sich ständig verändernde Prozesse geht, die auch auf die Partizipation der Nutzenden rekurrieren. Die Herstellung eines "Level Playing Field" für demokratieschädliche und demokratiefördernde Debattenbeiträge durch Anpassung der Algorithmen wäre der richtige Ansatz, ist aber – jedenfalls nach dem derzeitigen Stand der Technik – wohl noch nicht als gesetzliches Postulat umsetzbar. 

Für ein duales System aus individuellem Newsfeed und Publik-Value-Inhalten  

Schon eher vorstellbar sind Vorgaben für die Auffindbarkeit und Konfrontation der Nutzenden mit Public Value Inhalten, wodurch die dem Netz eigene Förderung schädlicher Beiträge zumindest ansatzweise relativiert werden könnte. Einen entsprechenden Regulierungsansatz kennt der Medienstaatsvertrag (§ 84 MStV) bislang nur für Plattformen, die auch journalistische Inhalte verbreiten, nicht aber für Medienintermediäre wie soziale Medien.  

Wenn neben dem individualisierten persönlichen Newsfeed in gleicher Größe und Prominenz ein Newsfeed mit Public Value Inhalten angeboten würde, gäbe es eine Art "duales System" wie im Rundfunk, mit dem alle Nutzenden dann also zwangsläufig konfrontiert würden. Die Vorstellung ist zugegebener Maßen etwas paternalistisch und grundrechtlich auch nicht trivial, aber in der Ausgestaltungslogik der dienenden Freiheit, in der es einen weiten Spielraum des Gesetzgebers gibt, nicht von vornherein abwegig. 

Prof. Dr. Christoph Wagner ist Rechtsanwalt und Notar in Berlin. Er berät bei Transaktionen und Streitfällen in der Medien- und Telekommunikationsbranche. Im Rahmen einer Honorarprofessur an der Universität Potsdam lehrt er insbesondere zu Rechtsfragen digitaler Plattformen.

Der Beitrag ist eine Kurzfassung seines Vortrags "Kommunikation in sozialen Medien und Grundrechte - mittelbare Drittwirkung der Meinungsfreiheit oder positive Ordnung zum Schutz vor Desintegration?" im Rahmen eines Medienrechtssymposiums an der Uni Potsdam vom 5. Juli 2022.

Zitiervorschlag

Freiheit und Verantwortung Sozialer Medien: . In: Legal Tribune Online, 31.08.2022 , https://www.lto.de/persistent/a_id/49488 (abgerufen am: 22.11.2024 )

Infos zum Zitiervorschlag
Jetzt Pushnachrichten aktivieren

Pushverwaltung

Sie haben die Pushnachrichten abonniert.
Durch zusätzliche Filter können Sie Ihr Pushabo einschränken.

Filter öffnen
Rubriken
oder
Rechtsgebiete
Abbestellen