Expert*innen beschäftigen sich zurzeit mit der Frage, ob in Bereichen wie der Justiz menschliche Urteilskraft unabdingbar sei. In dem Diskurs werden oft ethische und moralische Richtlinien angeführt, die mit der Vorstellung verknüpft sind, dass ein Algorithmus nicht über Gerechtigkeit und Moral entscheiden kann. Die Hoffnung besteht, dass KI-Systeme sogar dabei helfen können, gerechtere Urteile zu sprechen.
Ohne Zweifel gibt es erschreckende Beispiele, die die Schattenseite individueller menschlicher Entscheidungshoheit im Rechtsystem offenbaren. In einer prominenten Studie der New Yorker Columbia University und der israelischen Ben-Gurion-Universität wurden mehr als tausend Urteile von acht unterschiedlichen Richter*innen an zwei israelischen Gerichten untersucht. Das Ergebnis macht in eindrucksvoller Weise die inhärente Willkür von verschiedenen Einflussfaktoren auf die Richter*innen in gerichtlichen Prozessen deutlich. Die Forscher*innen untersuchten, ob die Angeklagt*innen eine Bewährungs- anstatt einer angedrohten Haftstrafe erhalten. Das Ergebnis ist erstaunlich und sorgte nicht nur im soziologischen Diskurs für Aufmerksamkeit. Es stellte sich nämlich heraus, dass Richter*innen vor einer Mittagspause dazu tendieren, im Sinne des Status Quo zu urteilen, und dieser Effekt nach eingenommenen Mittagessen verblasst. Mit anderen Worten sind Gerichtsurteile davon beeinflusst, ob der oder die zuständige*r Richter*in hangry ist oder nicht.
Zwischen Nützlichkeit und impliziten Gefahren
Hinsichtlich der Ergebnisse der Studie scheint eine Utilisierung von emotionslosen, algorithmus-basierten KIs auf den ersten Blick sehr hilfreich. Die Mathematikprofessorin Hanna Fry identifiziert in ihrem Buch Hello World – Was Algorithmen können und wie sie unser Leben verändern verschiedene gerichtliche und anwaltliche Prozesse, bei denen künstliche Intelligenz bereits heute eine Rolle spielt. Zum Beispiel benutzen Anwält*innen innovative Instrumente, um Verträge zu erstellen oder lassen sich bei der Beurteilung und Einordnung von Beweisen unterstützen. Des Weiteren können sogenannte Language Processing Models Anwälte dabei unterstützen, Vergleichsfälle und frühere Urteile zu recherchieren. Dadurch können in manchen Fällen die Anwaltskosten signifikant gesenkt und somit der Zugang zu rechtlichem Beistand für viele erleichtert werden. Außerdem unterstützen KI-Systeme die Richter*innen bei der Einschätzung über die Wahrscheinlichkeit der Rückfälligkeit von Straftäter*innen durch die Auswertung von demografischen und personenbezogenen Daten oder schlagen passende Interventionsprogramme vor. In den USA sind diese sogenannten Risk Assessment Tools bereits fester Bestandteil der juristischen Praxis. Jedoch sorgen diese seit der Implementation für Kritik und es wird gemahnt, dass durch die Funktionsweise des maschinellen Lernens ebenfalls Ungerechtigkeiten entstehen können.
Das Justizsystem weiß selber, dass es nicht perfekt ist. Jedoch ist nicht ohne Grund der oft postulierte Anspruch: Justitia ist blind. Nichtsdestotrotz gibt es ungerechte Urteile beziehungsweise viele Urteile fühlen sich ungerecht an. Ist dementsprechend ein blinder Algorithmus, dem keine Intuition und Gefühlszustände zugrunde liegen, letzten Endes ein besserer Richter? KI kann zwar bei der Entscheidungsfindung der Gerichte helfen, birgt aber bei der Anwendung in juristischen Prozessen selbst auch gewisse Fallstricke. Grundlage für KI-Systeme sind immer Daten. Bei der Anwendung innerhalb der Rechtsprechung werden diese Daten zumeist direkt aus der juristischen Praxis entnommen. Die Algorithmen werden mit den Ergebnissen von vergangenen Prozessen trainiert – dadurch werden beispielsweise rassistische und sexistische Einschätzungen menschlicher Entscheidungsträger*innen direkt übernommen und somit herrschende Ungleichheiten reproduziert. Beispielsweise beschreibt das Deutsche Institut für Menschenrechte in seinem Bericht Rassismus in der Strafverfolgung in mehreren Fachbeiträgen Missstände in den gerichtlichen Arbeitsabläufen. Die Expert*innen stellen fest, dass ausländische Kläger*innen aufgrund verschiedener Gründe wie zum Beispiel Sprachbarrieren oder Vorurteilen weniger ernst genommen werden, aber auch explizit rassistisch motivierte Straftaten oft nicht hart genug bestraft werden würden. Dieselben Gefahren werden von der Rechtsprofessorin Giula Gentile skizziert. Sie betrachtet die Voreingenommenheit der Datengrundlage als eine der größten Risiken. Es gäbe keine Garantie dafür, dass KI-gestützte Gerichte mit grundlegenden Werten wie der Unabhängigkeit der Justiz und letztlich der Rechtsstaatlichkeit im Einklang stehen.
Algorithmen als Unterstützer der Justiz
Verschiedene Wissenschaftler*innen sind sich zumindest einig, dass schon heute künstliche Intelligenz dazu beiträgt, eine Effizienzsteigerung bei juristischen Arbeitsprozessen zu erzielen. Diese Entwicklung wird sicherlich in den kommenden Jahren zunehmen. Giula Gentile mahnt, dass es in dem Zusammenhang jetzt die Aufgabe von Expert*innen sei, festzustellen, was bei der Algorithmisierung der Justiz verloren geht. Sie betont, dass KI kein Allheilmittel für die Fehlerhaftigkeit von Gerichten sein kann.
Außerdem hält sie fest, dass sich durch den Einfluss von Algorithmen auf die Rechtspraxis das Bild von Richter*innen und deren Autorität verändern wird. Das Bild der Rechtsprechung als moralische Institution wird sich zunehmend wandeln. Schon heute kann künstliche Intelligenz durch Einschätzungen und Prognosen der Justiz dabei helfen, gerechtere Urteile zu fällen. Beispielsweise werden Empfehlungen zur Bewährungsdauer artikuliert, passende Interventionsprogramme vorgeschlagen oder die Höhe von Kautionen empfohlen. Hanna Fry fasst das wie folgt zusammen: Algorithmen seien zwar noch nicht in der Lage, Beweise zu analysieren und Reue zu bewerten und somit über Schuld zu entscheiden – jedoch können Sie die Richter*innen dabei unterstützen möglichst viele Aspekte in ihr Urteil mit einzubeziehen. Die juristische Entscheidung bleibt somit weiterhin (noch) in menschlicher Hand. Ob und wie Künstliche Intelligenz in der Rechtsprechung unterstützt, sollte zumindest in der Begründung von Urteilen transparent gemacht werden müssen. So gibt es zwar Diskussionen darüber, wie eine Transparenz, insbesondere bei komplexen maschinellen Lernsystemen, sichergestellt werden kann, inwiefern diese Bedenken auch im AI Act ausreichend aufgegriffen werden, bleibt abzuwarten.
Text: CC-BY-SA 3.0
Foto von Titiwoot Weerawong auf vecteezy