Nachdem Elon Musk Twitter übernommen hat, erhält Mastodon viel Zulauf. Das Versprechen dort: Macht für alle, Non-Profit und Transparenz. Doch der Governance Check von Lena Hinrichs und Matthias C. Kettemann zeigt viel Verbesserungsbedarf.
Über die letzten 20 Jahre sind die großen Social-Media-Plattformen zu Regelmachern, Regeldurchsetzern und Richtern ihrer eigenen Entscheidungen geworden. Sie haben Kommunikationsräume geschaffen, in denen der Diskurs, der notwendigerweise demokratische Werte berührt, den Anforderungen der Aufmerksamkeitsökonomie unterworfen wird. Elon Musk macht uns nun offensichtlich, wozu das führen kann. Ein Mann kann im Alleingang über die Regeln des politisch bedeutsamsten sozialen Netzwerks entscheiden. Sind föderierte Netzwerke wie Mastodon der bessere Weg?
Mastodon und Twitter könnten kaum unterschiedlicher sein. Toots statt Tweets, Föderation statt Zentralisierung, bottom-up statt top-down, Non-Profit statt Profitlogik, Selbständiges Abonnieren statt Empfehlungsalgorithmen, Macht für alle statt Machtkonzentration bei einem erratischen Eigentümer.
Dezentral und unabhängig
Der 2016 gegründete Dienst Mastodon ist dezentral aufgebaut. Es gibt also verschiedene Server (sogenannte Instances), auf denen sich die Nutzenden registrieren können. Die verschiedenen Instances gehören unterschiedlichen Personen oder Gemeinschaften, vor allem Freiwilligen, die sich häufig durch Spenden finanzieren. Das reduziert die Abhängigkeit von großen Unternehmen und bringt den Vorteil, dass die eigenen Daten keinem Unternehmen gehören, welches diese verkauft und sich durch diesen Datenverkauf finanzieren muss. Allerdings legt man seine Daten in die Hände der jeweiligen privaten Podmins, namentlich die Admins des Servers, auf dem man sich anmeldet. Welche Verpflichtungen diese treffen, ist noch unklar. Mit dem Betreiben durch die Podmins geht jedoch auch die Werbe- und Trackingfreiheit des Netzwerks einher.
Die dezentralisierte Struktur von Mastodon ermöglicht es Nutzenden, samt ihren Accounts und Einstellungen auf andere Instances umzuziehen, ohne Follower zu verlieren oder selbst einen eigenen Instance zu gründen. Da Mastodon nach dem Open Source Prinzip auch seinen Quellcode offengelegt hat, ist die Hemmschwelle, eine neue Instance zu erstellen, auch niedriger. Allerdings besteht das Risiko, dass dies durch Gruppen missbraucht wird. Ein Beispiel hierfür ist die Verwendung des Quellcodes und zunächst die Ansiedlung von Gab.ai an Mastodon, einer rechtsextremen Gruppierung, die mittlerweile von den meisten Instances auf Mastodon geblockt ist.
Der Staat als Diensteanbieter?
Die jeweiligen Inhaber der Instances legen selbst fest, welche Moderationsregeln auf ihrem Server gelten sollen, sodass die Nutzenden sich den Instance aussuchen können, wo ihnen die Moderationsregeln am besten gefallen. Inzwischen betreiben auch deutsche Behörden Instanzen. Wie Sebastian Meineck für Netzpolitik.org zusammenfasst sind das Bildungsministerium seit März, das Innen und das Außenministerium seit Oktober und das Wirtschaftsministerium seit November am Tooten. Die Datenschutzbehörden von Bund, Sachsen und Baden-Württemberg ebenso.
Das ist nicht unkomplex. Deutsche Behörden sind bei der Moderation ihrer Inhalte an die Grundrechte gebunden. Diese sind der Gradmesser für Löschungen von Kommentaren und nicht etwa eine erdachte Netiquete. Wie Tobias Mast in seiner Studie zur Staatsinformationsqualität nachweist, ist es "legitim, von einer Sonderqualität staatlichen Informationshandelns zu sprechen". Vor allem die Gebote der Richtigkeit und Sachlichkeit sind zu achten. Dies könnte auch für das Moderieren (Löschen, Kommentieren) von Inhalten auf staatlich betriebenen Instanzen einschlägig sein. Wie etwa soll das Innenministerium mit einem Kommentar umgehen, der eine terroristische Gruppierung unterstützt? Hier wird wohl ein Rückgriff auf die klassische Grundrechtsdogmatik angebracht sein, um zu eruieren, inwiefern ein zu rechtfertigender, verhältnismäßigen Eingriff vorliegt.
Noch einmal: Der Unterschied zu Präsenzen in anderen sozialen Netzwerken besteht nun bei Mastodon darin, dass staatliche Akteure sich als Serverinhaber keinen substanziellen internen Regeln zusätzlich unterwerfen müssen, sondern diese selbst erst intern entwickeln müssen. Wie deutsche Behörden mit dieser Möglichkeit umgehen, bleibt abzuwarten.
Mastodon ohne übergreifendes Kontrollgremium
Nicht nur die Regelbildung ist im Wesentlichen (noch) den Einrichtern der Instances überlassen, auch Rechtsschutz gegen Moderationsentscheidungen besteht nicht. Eine höhere oder weitere Instanz, an die man sich wenden kann, wenn man mit der Entscheidung über die Meldung unzufrieden ist oder es serverübergreifende Beschwerden geben sollte (wie im oben erwähnten Fall von Gab), gibt es nicht. Dabei könnten ganz neue Arten föderierter Content Governance über die Instanzen hinweg pilotiert werden, etwa durch Zusammenschlüsse verschiedener Instanzen in Moderationsfragen, durch die gemeinsamen Übernahme von Standards, wie der Santa Clara Principles, durch die analoge Anwendung der Verpflichtungen aus dem Digital Services Acts (DSA) oder den Aufbau von Nutzendenbeiräten.
Mastodon-Anhänger hingegen begegnen dem Fehlen höherer Instanzen in der Moderation mit dem grundlegenden Argument der Instanzstruktur: Gefalle einem die Moderation auf einem Server nicht, könne man ja umziehen. Zielführender und im Sinne der Nutzendenbindung nachhaltiger könnte es aber sein wenn sich auch andere User:innen als die Serverinhaber in der Moderation engagieren und diese mit verändern können. Die innere Demokratisierung von Mastodon steckt indes noch in den Kinderschuhen.
Wann wird gelöscht? Nachholbedarf beim Thema Transparenz
Herausfordernd erweist sich auch der Umgang der Instanzen mit Transparenz. Moderationsentscheidungen werden selten transparent mitgeteilt. Die Administrator:innen prüfen die Meldungen und haben eine Reihe von Tools zur Verfügung, wie Verwarn-, Block- und Löschfunktionen sowie die Möglichkeit, die Sichtbarkeit von einzelnen Inhalten oder Inhalten bestimmter Personen zu verändern. Auf mastodon.social etwa ist es üblich, zunächst mit der gemeldeten Person in die Konversation zu gehen, zu verwarnen, zu bitten den Server zu verlassen oder die Person zunächst nur stummzuschalten. Das Löschen von Inhalten oder Blocken von Personen soll ultima ratio sein. Eine Verpflichtung dazu besteht aber nicht. Aus dem Netzwerkdurchsetzungsgesetz (NetzDG) und aus dem DSA lässt sich eine solche Pflicht aufgrund der (noch) geringen Größe der meisten Instanzen nicht ableiten. Auch die vom NetzDG geforderte Gewinnerzielungsabsicht liegt nicht vor, da die meisten Server durch Spenden finanziert sind.
Vieles sichtbar: Mängel im Privatsphärenschutz
Anfänglichen Beobachtungen zufolge tendieren die Moderierenden in einigen Instanzen dazu, sehr aktiv einzugreifen, indem sie sich gegen Desinformation wehren. Eine darüber hinaus vor sensiblen Inhalten schützende Funktion ist das Feature, selbst als Autor:in eines Inhalts eine Triggerwarnung mit Hinweis auf die konkreten Themen des Posts hinzufügen zu können, um die Sichtbarkeit einschränken zu können. Auch die Nutzenden selbst können die Inhalte, die ihnen auf dem Feed angezeigt werden, einschränken: Bestimmte Wörter, Phrasen und andere Nutzende können aus dem eigenen Feed ausgeschlossen werden.
Zusätzlich kann die Sichtbarkeit eigener Inhalte für jeden Inhalt individuell eingestellt werden. Durch diese Funktionen lassen sich "Direktnachrichten" verschicken: Es gibt keine richtige Funktionen für Direktnachrichten, aber die Sichtbarkeit eines Posts lässt sich so einschränken, dass nur eine oder ein paar Personen diesen sehen können. Hierin liegt allerdings auch das Problem: Dadurch, dass es sich um einen gewöhnlichen Post handelt, wird der Inhalt auch unverschlüsselt auf dem Server gespeichert. Ähnlich kann es auch bei Inhalten über mehrere Server hinweg sein. Das bedeutet, dass die Inhaber des Instances jederzeit Zugriff darauf haben. Zwar wird vor dem Absetzen eines solchen Posts davor gewarnt, dass die Kommunikation nicht Ende-zu-Ende verschlüsselt ist, jedoch ist fraglich, ob allen Nutzenden klar ist, was das bedeutet. Mastodon reagierte hierauf, indem sie ankündigten, an einer Ende-zu-Ende-Verschlüsselung zu arbeiten.
Antivirale Kultur
Die Unübersichtlichkeit Mastodons und das Fehlen algorithmisch kuratierter Feeds, ist gerade durch die Community Mastodons gewollt. Das die Autonomie respektierende, antivirale Design ist Programm: Dadurch, dass Inhalte schwerer auffindbar sind, verlangsamt sich die Konversation. Es entsteht friction, ein Aufwand, um ins Gespräch einzusteigen, der dazu führt, sich intensiver und weniger emotional mit dem Gegenstand auseinanderzusetzen.
Genau diese Kultur ist für viele der Mastodon-User auch ausschlaggebend für die Nutzung des sozialen Netzwerks. Features, die dieser Kultur der Antiviralität entgegenstehen, werden von der Community schnell abgelehnt. So wurde zum Beispiel ein Feature entwickelt, um Postings automatisch für Suchmaschinen auffindbar zu indexieren. Hiergegen gab es großen Protest durch die gefestigte Mastodon-Community und der Betreiber der Instanz, wo der Vorschlag geäußert wurde führte eine neue Regel ein, die derartige Anwendungen nicht mehr erlauben würde.
Für Gruppen, die schnell Themen setzen und gerade Wellen von Aufmerksamkeit erzeugen wollen, ist das hinderlich. Ein Vorteil kann es allerdings für Gruppen sein, die befürchten, auf einer öffentlicheren Plattform angegriffen zu werden, wenn sie sich etwa über Diskriminierungserfahrungen austauschen. Die erschwerte Auffindbarkeit ihrer Konversationen kann sie davor schützen.
Das demokratische Potenzial ernstnehmen
Mastodon kann zum Experimentierraum für demokratische Diskurse werden. Doch der Vergleich zeigt die Herausforderungen für sind enorm: Datenschutzprobleme müssen gelöst werden, der Privatsphärenschutz ist löchrig, besonders funktional ist das Mammut-Netzwerk nicht - da ist der Twitter-Vogel weit agiler. Inhalteregulierung findet punktuell statt, ohne dass Transparenz- und Rechtsschutzanforderungen erfüllt würden.
Vor allem erfüllt Mastodon bislang nicht das größte Versprechen, das in der Dezentralisierung eigentlich liegen sollte, nämlich die Demokratisierung der Regelsetzung und -durchsetzung. Schließlich sollten wir mehr gesellschaftliche Gruppen in die Entwicklung von Regeln dafür einbeziehen, was online gesagt werden darf. Die deutschen Akademien der Wissenschaften forderten kürzlich die Beteiligung von "Vertretern staatlicher und zivilgesellschaftlicher Stellen sowie (...) von Nutzern (...) an Entscheidungen über Grundsätze und Verfahren der Inhaltskuration". Auch die deutschen Regierungsparteien bekannten sich im Koalitionsvertrag dazu, "die Einrichtung von Plattformräten" (d.h. Institutionen, die die Regeln und Praktiken der Plattformen überwachen) voranzutreiben. Zuletzt hat die Bundesregierung in Beantwortung einer kleinen Anfrage der CDU/CSU-Bundestagsfraktion im Juni erneut bestätigt, dass sie sich “aktiv in die Entwicklung von Konzepten zum Aufbau von Plattformräten ein[bringe]” und dass Plattformräte “eine sinnvolle Ergänzung zum Rechtsrahmen darstellen” könnten.
Mastodon könnte die Demokratisierung von Plattformregeln pilotieren, indem es User:innen niederschwellig in die Moderation mit einbezieht. Föderierte Netzwerke haben großes demokratisches Potenzial. Mastodon löst dieses aber (noch) nicht ein. Die Fahnen der Online-Regulierung stehen auf Sturm: passend, dass auch der Deutsche Wetterdienst schon auf Mastodon ist.
Die Autorin Lena Hinrichs studiert Rechtswissenschaften an der Universität Hamburg und arbeitet am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI).
Der Autor Prof. Dr. Matthias C. Kettemann, LL.M. (Harvard) leitet das Institut für Theorie und Zukunft des Rechts an der Universität Innsbruck und das Innsbruck Quantum Ethics Lab sowie Forschungsgruppen und -programme an HBI und am Humboldt-Institut für Internet und Gesellschaft.
Vor- und Nachteile von Mastodon: . In: Legal Tribune Online, 29.11.2022 , https://www.lto.de/persistent/a_id/50319 (abgerufen am: 23.11.2024 )
Infos zum Zitiervorschlag