Auch wenn es genügend Gründe gibt, in diesen Tagen den 25. Geburtstag des Internet zu feiern: Das Netz hat die Gesellschaft in den letzten Jahren auch das Fürchten gelehrt. Menschen radikalisieren sich in sozialen Netzwerken und nicht selten erwachsen daraus ganz reale Gewalttaten. Kurz: Das World Wide Web scheint nicht nur, aber auch zur Hass-Plattform zu verkommen. Doch wie lässt sich das verhindern? Das war eine der Fragen, der sich die Expertenrunde bei der telegraphen_lounge der Deutschen Telekom am vergangenen Mittwoch stellte. An der Rolle von Facebook, Google und Co schieden sich dabei besonders die Geister.
Bald zehn Monate ist es jetzt her, dass die vom Bundesjustizministerium initiierte Task Force erste Ergebnisse vorstellte, wie gegen Hassinhalte im Netz vorgegangen werden kann. Daran beteiligt waren nicht nur zivilgesellschaftliche Organisationen, sondern auch Vertreter von Facebook und Google. Mit ihnen wurden konkrete Maßnahmen zur Bekämpfung von Hass-Inhalten vereinbart. Doch wie ist der Stand heute? Wurden die Zusagen eingehalten? Und wo reichen die Schritte noch nicht aus? Das war eine zentrale Streitfrage bei der Diskussionsrunde „Digitaler Extremismus: Verkommt das Netz zur Hass-Plattform?“ in der Hauptstadtrepräsentanz der Deutschen Telekom AG.
Simone Rafael von der Amadeu-Antonio-Stiftung, die an der Task Force des Justizministeriums teilgenommen hatte, forderte die sozialen Netzwerke dazu auf, noch stärker Verantwortung zu übernehmen: „Es ist ein guter Zwischenschritt, wenn Nazis und Terroristen nicht mehr dort sind, wo sie auf sehr, sehr viele Einfluss nehmen können.“ Und wenn man als Unternehmen in seinen Allgemeinen Geschäftsbedingungen schreibe, dass man keinen Rassismus und Antisemitismus dulde, solle man das auch umsetzen.
Hatespeech: Google verweist auf eigene Grenzen
Lutz Mache, der sich im Google-Hauptstadtbüro mit Hate Speech befasst, wies solche Aufrufe nach einem noch stärkeren Engagement der Netzbetreiber indirekt zurück: „Es ist klar, dass wir gegen rechtswidrige Inhalte im Netz vorgehen.“ Google wolle schließlich vor allem den rechtmäßigen Meinungen eine Plattform bieten. Allerdings sei die Unterscheidung zwischen zulässiger und unzulässiger Äußerung schwierig. Das zeige schon das Gerichtsurteil zum umstrittenen Böhmermann-Schmähgedicht: „Das ist ein schmaler Grat, das zu entscheiden.“ Außerdem würden allein auf You Tube pro Minute 400 Stunden Video-Material hochgeladen. „Das ist für kein Unternehmen möglich, diese proaktiv zu durchsuchen. Deshalb bauen wir darauf, dass Nutzer uns diese melden“, so Mache. Und Google stelle dafür – wie in der Task Force vereinbart – die Produkt-Tools bereit. Eine technische Lösung von Seiten des Unternehmens zur Bekämpfung von Hass-Inhalten scheide allerdings aus – anders als bei Urheberrechtsverstößen mit vorab verfügbarem, klar überprüfbarem Material: „Die Rechtsverstöße sind da anders zu erkennen als bei Hassinhalten“, sagte Mache.
Der parlamentarische Staatssekretär im Justizministerium, Ulrich Kelber (SPD), widersprach Mache und berichtete von eigenen Erfahrungen mit Hasskommentaren. Bislang würden etwa Äußerungen, die mit Worten wie „Judenschwein“ und „Untermensch“ ganz klar diskriminierten, nach angemeldeter Prüfung bei Facebook durchgehen. Kelber: „Das hat nichts mit zweifelhaft zu tun, sondern da funktioniert der Prozess nicht.“ Er erwarte, dass bei den Betreibern angezeigte Inhalte von Leuten geprüft werden, die die Landessprache beherrschen und wissen, was rechtlich in Deutschland verboten ist.
Zentrale Zusage der Internetbetreiber noch nicht eingehalten
Überhaupt: „Die Zusage der Internetbetreiber, dass Inhalte innerhalb von 24 Stunden geprüft und auch im Falle einer Straftat gelöscht werden, wird noch nicht eingehalten“, so der SPD-Politiker. „Da ist noch deutlich Raum zur Verbesserung.“ Auch mit Blick auf die Technik sei das der Fall. Intelligente Systeme könnten etwa einen hochgeladenen und wahrscheinlich strafrechtlich relevanten Inhalt „in eine Art Zwischen-Quarantäne stecken, bis ihn sich jemand angeschaut hat“, schlug Kelber vor. „Das verletzt das Recht von niemandem, wenn der Inhalt erst nach einer Stunde online ist.“ Ferner könnten Filter-Bubbles durch Veränderung der Algorithmen durchbrochen werden. Es sei nicht in Ordnung, dass Menschen, die sich in ihrer Ansicht zu radikalisieren begännen, in eine laufende digitale Selbstbestätigung gebracht würden, so der Staatssekretär. Da stimmte auch Google-Vertreter Mache zu.
Susann Rüthrich, Sprecherin der Arbeitsgruppe „Strategien gegen Rechtsextremismus“ der SPD-Bundestagsfraktion, beschrieb die Chancen einer Algorithmus-Veränderung so: „Wenn jemand nach einschlägigen Begriffen sucht, soll er nicht nur auf Seiten kommen, die er eigentlich gesucht hat, sondern auch auf Seiten, die aufklären.“
„Da braucht es klare Ansagen von Demokratinnen und Demokraten“
Und was kann der Staat tun? In den Augen von Simone Rafael von der Amadeu-Antonio-Stiftung braucht es jedenfalls keine Gesetzesverschärfung. Allerdings seien bei Staatsanwaltschaften und Polizeistellen weitere Spezialisten nötig, die sich mit Hate Speech im Internet auskennen. Staatssekretär Kelber sah die Behörden schon personell gestärkt. Durchaus gälte es aber, die Justiz fit zu machen: „Manchmal ist es auch einfach nur notwendig, besonders eklatante Beispiele besonders schnell zu ahnden.“ Kelber erhofft sich davon eine Signalwirkung auf Internetnutzer. Die helfe mehr, als wenn nach zwölf Monaten langsam jeder einzelne Fall abgearbeitet werde. Es gehe um Bewusstseinsschaffung. Lutz Mache von Google hat bereits beobachtet, dass die Sensibilisierung im Netz gestiegen ist: „Die Zahl der Nutzer hat sich erhöht, die Inhalte bei uns melden und sich aktiv auf unseren Plattformen gegen Hass aussprechen.“ Sich für demokratische Werte einzusetzen, sei schließlich Aufgabe aller. Darin war sich die Runde einig.
Von allen Diskutanten wurde daher die eigenständige Rolle der Gesellschaft im Kampf gegen Hass-Inhalte hervorgehoben. Staatssekretär Kelber sieht die Nutzer etwa vor allem dann gefordert, wenn es sich bei Kommentaren zwar nicht um Straftaten, trotz allem aber um Hate Speech handelt: „Da kann man nichts verbieten oder Löschanträge stellen, da braucht es klare Ansagen von Demokratinnen und Demokraten.“ Die Abgeordnete Susann Rüthrich unterstrich dabei die Bedeutung der Medienkompetenz. Dazu gehöre nicht nur ein reflektierter Umgang mit Inhalten im Netz: „Man muss die Menschen auch kompetent machen, sich persönlich nicht komplett angreifbar zu machen.“ Das schließe ein Bewusstsein ein, was man von sich selbst online preisgeben will und was nicht: „Denn aus einer digitalen Auseinandersetzung kann sehr schnell etwas ganz reales werden.“
Titelbild: Hatespeech von sarinhars und ToNic-Pics via pixabay, licenced CC0 Public Domain