Immer mehr Journalisten bauen ihre Beiträge auf umfangreiche Datensätze auf, die sie oftmals selbst recherchieren, interpretieren und visualisieren. Aktuellstes Beispiel ist die sogenannte „Wikigate-Affäre“, die Veröffentlichung von geheimen US-Diplomatenberichten auf Wikileaks, von Autoren weltweit lesergerecht aufbereitet. politik-digital.de hat bei den Experten nachgefragt: Wie steht es um den deutschen Datenjournalismus?

“Datenjournalismus steckt in Deutschland noch in den Kinderschuhen”, sagt Georgi Kobilarov. Er ist Softwareentwickler im Bereich “Semantic Web” und hat unter anderen für die British Broadcasting Corporation (BBC) gearbeitet. Er setzt sich dafür ein, dass eine Infrastruktur für offene Daten und damit auch für Datenjournalismus in Deutschland entsteht. So organisiert Kobilarov das alle fünf bis sechs Wochen stattfindende “Berliner Datenjournalisten-Treffen”. Er bemängelt fehlende staatliche Open-Data-Projekte wie in Großbritannien, gibt sich aber zugleich kämpferisch: “In Deutschland muss um jeden einzelnen Datenwert gekämpft werden. Die Leute müssen scrapen und hacken.”
Werkzeuge zum Selbermachen
Scrapen [engl: to scrape = schaben, kratzen] meint in diesem Fall das Auffinden und “Einsammeln” von Informationen, um diese in einem maschinenlesbaren Datensatz zusammenzuführen. Aus diesen Datensätzen können dann journalistische Geschichten – oft in Form von Visualisierungen – entstehen. Scrapen bedeutet damit Unabhängigkeit von staatlicher Datenaufbereitung. Grenzen setzen nur noch Fantasie und Programmierkenntnisse. Ein aktuelles Beispiel für den Einsatz eines Scrapers ist Gregor Aischs Visualisierung zu den „Nebeneinkünften deutscher Bundestagsabgeordneter“.
 

Screenshot Scraper Wiki

 
Wer sich im Scrapen probieren möchte, findet im “ScraperWiki” dazu quelloffene und kostenlose Werkzeuge. Auf der Webseite gibt es zudem Anleitungen und “fertige” Rohdatensätze. Auch für die Visualisierung der Daten finden sich im Netz zahlreiche Möglichkeiten. Ein viel genutztes Werkzeug ist das kostenlose “Many Eyes” von IBM, das unter anderem die TAZ in ihrem noch jungen Open-Data-Blog benutzt, z.B. bei der Visualisierung “Die Grünen in den Bundesländern“.
Grafische Aufbereitung nötig, aber kein Selbstzweck
“Die Datenerfassung und die Verfügbarkeit von Datensätzen wird weiter zunehmen. In der Natur der Sache liegt es, auf interaktive Visualisierungen und Anwendungen zum Filtern der großen Datensätze zu setzen”, betont auch Datenjournalist Lorenz Matzat. Gut zu beobachten ist dies zur Zeit bei der Aufbereitung der geheimen US-Depeschen durch Spiegel-Online. Die textlastige Umsetzung wird der Wikileaks-Datenflut nicht gerecht. Deutlich wird dies auch im Vergleich mit den interaktiven Aufarbeitungen der Protokolle durch den Guardian. Bei den zuvor veröffentlichten “Irak-Protokollen” setzten die Spiegel-Redakteure ebenfalls auf interaktive Karten samt Leseanleitungen.
 

"Der Spiegel" Irak-Protokolle

 
Ein Problem des “Data-Driven-Journalism” ist die Visualisierung zum Selbstzweck, oder wie Kobilarov es nennt: des “Visualization-Porn”. Dies sei im noch jungen Datenjournalismus allerdings unvermeidlich, denn die User würden zunächst mit den neuen Möglichkeiten herumprobieren, meint der Software-Experte. Früher oder später führe aber der Weg zum nutzenorientierten Einsatz, nämlich “eine Story oder Aussage auf eine Weise zu erzählen, die mit Worten umständlicher wäre als mit Graphen”, so Kobilarov weiter.
Deutsche Visualisierung zeigt, wie es gehen kann
Der Lernprozess beginnt dabei nicht erst bei der Aufbereitung, sondern schon bei der Herangehensweise an neue Geschichten. Untersucht der Journalist vorhandene Datensätze auf eine gezielte Fragestellung hin? Entdeckt er die Geschichte in den Datensätzen selbst? Oder muss der Autor für seine Story erst Daten erheben? Letzteres unternahmen Johannes Radke und seine Kollegen vom Tagesspiegel und der ZEIT bei der “Visualisierung der Todesopfer rechter Gewalt von 1990 – 2010“. Während ihrer Recherche fanden Sie heraus, dass es mindestens 137 Todesopfer rechter Gewalt in Deutschland gebe. Die Polizeistatistik geht dagegen von nur 47 Toten aus. Bereits im Jahr 2000 erschien im Tagesspiegel und in der Frankfurter Rundschau eine Liste mit Todesopfern rechter Gewalt. Bei der Neuauflage 2010 entschieden sich die Redakteure für eine interaktive Karte.
 

"DIE ZEIT" Todesopfer rechter Gewalt

 
Die User können auf dieser Karte sowohl die deutschlandweiten Ausmaße von Rechtsextremismus analysieren, als auch Fälle direkt vor ihrer Haustür finden. Radke und seinen Kollegen war es zudem wichtig mit der Karte “das Klischee zu entkräften, dass Rechtsextremismus angeblich ein rein ostdeutsches Problem ist.” Trotz intensiver Recherche erhebt die Karte keinen Anspruch auf Vollständigkeit: “Wir haben einige Hinweise von Usern auf weitere Verdachtsfälle erhalten, denen wir jetzt nachgehen”, so Radke. Resonanz gab es nicht nur von einzelnen Bürgern: Auf Grundlage von Radkes Recherchen arbeite die Bundestagsfraktion der Linkspartei derzeit an einer Großen Anfrage zur Diskrepanz zwischen offizieller und inoffizieller Opferzahl, so der Autor.
Auf die Bürger hören – auf die Insel schauen
Michael Kreil, selbstständig im Bereich Datenvisualisierung, mahnt dagegen dass die “Deutungshoheit nicht bei einer kleinen Gruppe von Menschen [den Journalisten, die Red.] liegen darf”. Da Daten verschiedene Interpretationen und Schlußfolgerungen erlauben, stecke der Mehrwert darin, “unterschiedliche Interpretationen zu vergleichen, gegeneinander abzuwiegen und darüber zu diskutieren”. Datenjournalismus macht den Berufsjournalisten und die großen Medienhäuser dabei nicht überflüssig, wie der Guardian zeigt: Auf dessen “Data-Blog” arbeiten Vollzeit-Journalisten mit ihren Usern zusammen. Sie stellen Daten bereit und zeigen Visualisierungsbeispiele – fragen am Ende aber immer: “What can you do with this data? – Was kannst du mit den Daten machen?”

Privacy Preference Center