Titelbild: Robots by alluregraphicdesign via pixabay CC0 Public DomainProminente nutzen sie, genauso wie Staaten und Interessengruppen, um sich besser darzustellen und Arbeit zu sparen: Social Bots. Ein Überblick über die aktuellen Einsatzmöglichkeiten der automatisierten Programme, mögliche Gegenmaßnahmen und das moralische Dilemma der Transparenz.

Elon Musk hat einen, der damalige US-Präsident Barack Obama ebenfalls, genauso wie die Musiker Justin Bieber und 50Cent. Und jetzt gehört auch der Heilige Vater Papst Franziskus dazu. Was alle diese Personen eint: Sie haben einen Social Bot, der für sie mit den Menschen per Facebook-Messenger kommuniziert. Der „MissioBot“ beispielsweise erzählt mit Emojis und GIFs die Geschichten gemeinnütziger kirchlicher Projekte. Am Ende der Konversation wird der Nutzer dazu aufgefordert, einen kleinen Betrag zu spenden oder die Geschichte weiter zu erzählen.

Diese Chatbots stellen einen Wandel in Facebooks Handhabung mit Social Bots dar. Wurden die automatisiert arbeitenden Programme, von denen sich einige als menschliche Nutzer ausgeben, noch bis Mitte 2016 konsequent aus dem sozialen Netzwerk ausgesperrt, öffnet sich die Plattform jetzt. Die Bots können von Firmen oder eben prominenten Persönlichkeiten betrieben werden und übernehmen dann die Kommunikation auf deren Facebookseiten. Social Bots, die unerlaubt Fake-Profile betreiben, bleiben weiterhin unerwünscht. Die Zahl der Bots im Internet steigt dabei stetig an. Neueste Schätzungen gehen davon aus, dass 2016 erstmals mehr als die Hälfte des weltweiten Traffics im Internet nicht mehr vom Menschen generiert wurde, sondern von automatisierten Programmen verschiedenster Couleur.

Welche Reichweite Social Bots generieren, zeigen zwei Großereignisse der vergangenen Monate. Im Juni 2016 konnten Forscher der Universität Oxford nachweisen, dass insgesamt bis zu 30 Prozent der Posts auf Twitter zum Referendum von Social Bots erstellt wurden. Dabei bedienten sich beide des Hilfsmittels der automatisiert arbeitenden Accounts. Ein Prozent der beteiligten Accounts sorgte für ein Drittel der Tweets. Bots, die #Brexit oder #StrongerIn posteten, hielten sich dabei etwa die Waage. Im Verhalten der Bots zeigte sich jedoch ein Anpassen des Verhaltens an die gegebene Diskussionsumgebung.

Pro-Trump – Pro-Clinton: 5:1

Ein starkes Ungleichgewicht zeigte sich im Vorfeld der US-Wahl. Besonders während der drei Debatten der Präsidentschaftskandidaten waren die Social Bots für beide Seiten aktiv und machten zeitweise bis zu 30 Prozent der Nachrichten auf Twitter zu diesem Thema aus. Während des Wahlkampfes zeigte sich jedoch ein starkes Ungleichgewicht zu Gunsten Donald Trumps, das stetig wuchs, je näher die Wahl rückte. Kurz vor der Wahl übertrafen die Pro-Trump-Tweets die Pro-Clinton-Tweets im Verhältnis 5:1. Bereits durch die große Anzahl an veröffentlichten Tweets zeigt sich, dass Social Bots die Macht besitzen, aktuelle Diskussionen gehörig zu stören. Gegebenenfalls verschwinden andere Meinungen in einer Flut von Nachrichten, indem die gegnerischen Hashtags „gekapert“ werden.

Social Bots sind schon lange keine simplen Link-Spammer oder einfache Informationsposter mehr. Netzwerke von Bots können unbemerkt politische Meinungen in die laufende Diskussion einstreuen, wie ein Vorfall während der Maidan-Demonstrationen in der Ukraine 2014 zeigt. Auf Twitter verbreiteten tausende Social Bots während der Proteste ihre Botschaften. Ihre Aktivitätszyklen ähnelten denen von menschlichen Nutzern. Der Großteil der Posts enthielt jedoch eher unpolitische Inhalte: von Links zu Nachrichtenseiten, über sexistische Witze bis hin zu Links zu wahrscheinlich illegalen Downloadseiten für Filme. Durch dieses menschliche Verhalten erhöhten die Bots ihre menschliche Followerzahl, nur um ab und zu politische Tweets mit positiven Äußerungen über den „Rechten Sektor“ – einer rechtsextremen Gruppierung auf dem Maidan – zu posten.

Es zeigt sich, dass Social Bots immer komplexer in ihrem Verhalten werden. Während die Politik noch über den richtigen Umgang damit diskutiert, halten sich die sozialen Netzwerke bedeckt, wie sie mit diesem Phänomen umgehen (wollen). Die Anfälligkeit der Netzwerke hängt einerseits von der Struktur der Plattformen ab. Während es bei Facebook der Bestätigung einer Freundschaftsanfrage bedarf, erfolgt die Kontaktaufnahme beispielsweise bei Twitter lediglich über Follower-Modell. Auch mag der Anschein entstehen, dass Social Bots überwiegend zu negativen Aufgaben herangezogen werden.  Wobei die Diskussion über gut und böse Immer sartk vom Blickwinkel abhängt.

Gegenmaßnahmen befinden sich noch in den Kinderschuhen

Die Forschung zum Erkennen von Social Bots steht derzeit noch am Anfang. Die Modelle basieren auf drei Grundsystemen. Das erste baut auf die Fähigkeit von ausgebildeten Menschen, Bot-Accounts von Menschen zu unterscheiden. Dabei hängt die Erfolgsquote von den sozialen Netzwerken ab. Bei Twitter beispielsweise bieten die Profile weniger Anhaltspunkte, die Rückschlüsse auf die Echtheit des Nutzers zulassen. Andererseits bedarf es meist eines Teams, um kritische Fälle zu besprechen. Damit ist es sehr teuer für die Netzwerke. Der zweite Ansatz beruht auf der Annahme, dass Menschen nur mit bekannten Nutzern interagieren. Diese Annahme konnte für viele Netzwerke und Beispiele entkräftet werden und gilt damit als unzuverlässig. Die dritte Systematik arbeitet mit selbstlernenden Algorithmen, wie beispielsweise das Projekt Social Media Forensics der Universität Siegen. Ein Ansatz, der auch die Social Bots des Rechten Sektors auf dem Maidan enttarnte, erfolgte über die Analyse der Profilbilder, dem eine Textanalyse vorausging. Die vergleichsweise hohe Erfolgsquote des Projekts: über 80 Prozent erkannte Bots.

Moralisches Dilemma: Transparenz

Nun mag man sagen, dass 80 Prozent doch ein gutes Ergebnis sind. Nur stellt sich die Frage: Was passiert mit den fast 20 Prozent echter menschlicher Nutzer, die fälschlicherweise als Social Bot gekennzeichnet oder verbannt wurden? Der Nutzer weiß nun nicht, was er gemacht hat, um als Bot erkannt und aussortiert zu werden. Das moralische Dilemma entspinnt sich am Grad der Transparenz. Legen die Plattformen und Entwickler der Bot-Erkennungsprogramme offen, nach welchen Kriterien sie Social Bots suchen, können echte Menschen entsprechend erkennen, welches Verhalten zur Kennzeichnung führte. Andererseits können die Entwickler der Bots diese entsprechend anpassen und die Erkennungsprogramme müssen eine neue, zusätzliche Generation von Social Bots ausfindig machen. Ein theoretisches, aber nicht allzu weit entferntes Problem, das alle sozialen Netzwerke und Entwickler in ihren Bestreben berücksichtigen sollten.

 

Titelbild: Robots by alluregraphicdesign via pixabay, licensed CC0 Public Domain 

 

cc-lizenz-630x11011

Privacy Preference Center