Der Attentäter von Christchurch war ein Anhänger des hybriden Informationskriegs: er filmte seinen Anschlag mit einer Helmkamera und streamte ihn live. Aufzeichnungen davon kursierten in Folge auf zahlreichen Social Media Plattformen. Sein Terrorakt sollte ein Aufruf zu weiterer Gewalt sein. Youtube und Facebook unternahmen schnell Schritte, diesen unmenschlichen Inhalt zu blockieren: sie löschten bestehende Videos, die auf ihre Plattformen hochgeladen worden waren. Mittels Uploadfiltern verhinderten sie, dass Kopien wieder online gestellt würden.

Die Plattformen unternahmen damit auf eigene Initiative hin eine Zensur, und es dürfte sich kaum ein Kritiker dieses Schritts finden. Andere Plattformen wie 8chan ließen das Video online. Als Reaktion darauf entschlossen sich die großen Internet-Anbieter in Australien und Neuseeland, die betreffenden Plattformen zu sperren. Zugriff auf 8chan und andere war in diesen Ländern nur noch über Umwege möglich.

Dieser Schritt wiederum wurde kritisiert. Nicht nur die Verhältnismäßigkeit einer kompletten Sperrung der Plattformen wurde in Frage gestellt, sondern auch das Recht der ISP (Internet Service Provider), Inhalte zu zensieren. In Deutschland sperrte Vodafone jüngst auf Betreiben der GEMA einen ausländischen Anbieter urheberrechtlich geschützten Materials.

Doch welche Teile des Ökosystems Internet haben die Möglichkeit, aus eigenem Antrieb heraus bestimmte Inhalte oder Anbieter zu unterdrücken oder völlig zu blocken? Wann geschieht dies, und wie ist dieses Verhalten zu bewerten? Ein Blick auf verschiedene Szenarien des Deplatformings und verwandter Blocks

1. Totschweigen in den sozialen Medien

Facebook, Youtube, Instagram und Twitter unterdrücken inzwischen regelmäßig anstößige Inhalte. Dabei sind die entsprechenden Posts noch vorhanden, werden aber in Suchen oder in den Vorschlägen nicht mehr angezeigt. Beispiele sind Videos von Impfgegnern oder rechtsradikale Inhalte. Oft, aber nicht immer, werden diese Maßnahmen mit dem Verstoß gegen Nutzungsrichtlinien begründet.

Anwender können die betreffenden Inhalte weiterhin verlinken und weiterempfehlen, so dass zumindest die enthusiastischen Follower von dieser Maßnahme kaum betroffen sind.

2. Verbannen aus den sozialen Medien

Gerade im Fall von Aufrufen zu Gewalt und Hass durch rechtsradikale Accounts haben sich Facebook et al. in den letzten Monaten zur Löschung diverser Accounts entschlossen. Alex Jones Blog Inforwars ist eines der prominenten Beispiele. Erst Anfang des Monats verwies Facebook abermals zahlreiche kontroverse User des Netzwerks. Auch hier liegen meist Verstöße gegen Nutzungsrichtlinien zugrunde.

Anwender haben nur dann die Möglichkeit, die Botschaften der gesperrten Teilnehmer zu empfangen, wenn diese auf anderen Plattformen oder einer eigenen Website vertreten sind.

3. Stilllegen webbasierter Finanzierungsquellen

Im Falle von Infowars oder Impfgegnern setzen die Plattform-Betreiber immer wieder auch auf das Stilllegen der Finanzierungsquellen. Im Online-Ökosystem sind Spenden oder Merchandising-Käufe über Bezahldienste wie Patreon oder Paypal ein beliebtes Mittel, einzelne Produzenten zu finanzieren. Werden diese Kanäle (die bisweilen in der Hand der Social Media Plattform sind) von den Anbietern gesperrt, schadet das dem Produzenten empfindlich.

Alternativ können die Anbieter von Online-Werbung (auch hier sind die Social Media Anbieter selbst beteiligt) einzelne Seiten aus dem Anzeigengeschäft ausschließen, und so eine weitere Finanzierungsquelle trockenlegen. In der Vergangenheit waren rechtsradikale Blogs wie Breitbart oder Impfgegner betroffen – oftmals auf Druck der Anzeigenkunden hin.

4. Entzug von Webspace

Selbst wenn ein Produzent umstrittener Inhalte einen eigenen Blog oder eine eigene Website verwendet, greift er dafür oft auf Webspace der großen Cloud-Anbieter zurück. Diese könnten den Vertrag mit ihm kündigen und die betreffenden Inhalte digital “heimatlos” machen – so geschehen mit dem Netzwerk gab.ai. Es steht jedem Teilnehmer des Internets offen, einen eigenen Webserver zu installieren, auf dem die Inhalte gehostet werden. In den meisten Fällen dürfte dies das technische Know-How und die zeitlichen Ressourcen für Pflege und Wartung aber übersteigen.

5. Entzug von DNS-Verweisen

Der DNS ist eine Art Adressbuch des Internets, der eine URL in die IP-Adresse des jeweilige Anbieters übersetzt. DNS-Provider sind private Unternehmen, denen es freisteht, Kunden zu akzeptieren oder zu kündigen. So kündigte der Anbieter Godaddy vor kurzem der rechtsradikalen Seite altright.com. Findet sich kein anderer DNS-Provider, sind die betroffenen Seiten nur noch über ihre IP-Adresse zu erreichen. Ein mühsamer Weg, der den Traffic empfindlich senken dürfte.

6. Blockierung im Netz

Das schärfste Mittel, eine Seite oder einen Produzenten von Inhalten mundtot zu machen, sind Sperren auf der Netzebene. Zugriffe auf bestimmte Inhalte oder Seiten werden dabei vom Internetanbieter komplett geblockt. Die oben erwähnten Beispiele belegen, dass die rechtliche Grauzone bereits heute unter verschiedenen Szenarien dazu einlädt, eine digitale Totalzensur einzurichten. In beiden Fällen haben die Internet-Provider ohne rechtlichen Zwang Maßnahmen ergriffen, die vermutlich auf Basis bestehenden Rechts von einem Richter angeordnet worden wären. Aber der vorauseilende Gehorsam macht viele Netzaktivisten nervös. Es ist heute kein absurder Gedanke, dass die nächste Regierung oder der nächste CEO eines großen Tech-Unternehmens autoritäre Tendenzen hat. Die digitale Zensur könnte dann schnell zu einem Mittel des Machterhalts werden, der an das chinesische Modell erinnert.

Die Digitalisierung der Redefreiheit

Alle oben beschriebenen Maßnahmen rühren an eines der wichtigsten Prinzipien der freiheitlichen demokratischen Ordnung: der Redefreiheit. Weniger stark im Falle der Punkte 1-3: es sind hier private Unternehmen, die ein eigenwirtschaftliches Interesse haben. Sie geben in erster Linie dem Druck ihrer Anwender nach, schädliche Inhalte zu tilgen und Akteure zu verbannen. Auch wenn Facebook und Youtube weitgehende Monopole innehaben, ist gegen diesen digitalen Hausputz grundsätzlich nichts einzuwenden. Selbst im Falle des Entzugs von Webspace (Punkt 4) kann man noch argumentieren, dass ein privater Anbieter von technischer Infrastruktur das Recht hat, seine Dienste verschiedenen Kunden vorzuenthalten. Man gerät aber damit an die Grenzen der Diskriminierung: warum sollte ein Bäcker verpflichtet sein, entgegen seiner religiösen Überzeugung Hochzeitstorten für gleichgeschlechtliche Paare zu backen, ein Webspace-Anbieter aber Kunden verweigern dürfen, die seinen politischen Ansichten widersprechen? Es kommt hier auf den Einzelfall an – aber damit ein Geschädigter Gerechtigkeit einfordern kann, muss die Sachlage justiziabel sein.

Als Faustregel für alle privaten Maßnahmen gegen einzelne Anbieter oder Inhalte könnte gelten: wenn ein verbannter Teilnehmer weiterhin die Möglichkeit hat, sich mit eigenen Mitteln zu helfen (eigener Webserver, eigene Bankverbindung), ist der digitale Boykott nicht zu beanstanden. Die positive Redefreiheit ist nicht im gleichen Maße einklagbar wie die negative Redefreiheit.

Anders bei der Blockade oder der Zensur auf Infrastrukturebene: bei DNS-Verweis und Datenverkehr sollten sehr strenge Maßstäbe angelegt werden, bevor ein privates Unternehmen einzelne User blockieren darf. Hier sind oft keine Alternativen verfügbar – die negative Redefreiheit wird dadurch direkt verletzt. Eine richterliche Anordnung sollte deswegen grundsätzlich erforderlich sein. Sowohl im Falle des Attentäters von Christchurch als auch des Anbieters GEMA-geschützten Materials war dies nicht erfolgt.

Offenbar weist die Rechtsprechung hier eine gefährliche Lücke auf: nicht nur werden die Bürger unzureichend vor dieser privaten – und willkürlichen – Zensur geschützt. Es fehlen auch Mechanismen, um gerechtfertigte Ansprüche (wie im Falle des Terrorvideos) schnell genug umzusetzen um den Schaden zu verhindern, den sie anrichten: es fehlt, kurz gesagt, eine Charta der digitalen Redefreiheit.

Titelbild: DOE Completes Cleanup of Transuranic Waste at Berkeley Lab by United States Department of Energy, Public Domain, via Wikicommons