1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Wenn der Richter mit Softwarehilfe urteilt

Doris Pundy
27. Januar 2019

Algorithmen sind im Justizsystem angekommen. Die Technik bietet Juristen wie Bürgern neue Möglichkeiten, zu ihrem Recht zu kommen. Aber wo liegen die Grenzen, wenn Maschinen über menschliches Handeln urteilen?

https://p.dw.com/p/3BwGJ
AI artificial Intelligence Künstliche Intelligenz in China
Bild: picture-alliance/dpa/TU

Eric L. flüchtete im US-Bundesstaat Wisconsin in einem gestohlenen Auto vor der Polizei. Seine Strafe: sechs Jahre Haft. Bei der Entscheidung, wie lange er ins Gefängnis muss, griff der Richter auf eine Software zurück. Diese berechnete für den Angeklagten ein hohes Risiko, erneut straffällig zu werden. L. ging in Berufung. Sein Argument: Das Urteil sei härter ausgefallen, weil es von einem nicht einsehbaren Algorithmus mitbestimmt wurde; der Prozess sei daher nicht fair gewesen. Der Oberste Gerichtshof von Wisconsin entschied gegen L. Auch ohne Software wäre der Richter zu seinem Urteil gekommen. Trotzdem löste der Fall eine anhaltende Kontroverse aus.

Maschine erbt menschliche Fehler

Die Software "Compas" wird von einem privaten Unternehmen hergestellt. Gerichte in mindestens zehn US-Bundesstaaten verwenden das Programm. Die Risikoberechnung beruht unter anderem auf einem Fragebogen und dem Vorstrafenregister. Welche Faktoren zur Berechnung herangezogen werden, und wie diese gewichtet werden, gibt die Herstellerfirma nicht preis. Zusätzlich werfen manche Experten dem Algorithmus vor, für Schwarze ein höheres Risiko zu errechnen, erneut straffällig zu werden. Weitere Studien haben den Vorwurf jedoch in Frage gestellt.

Sofia Olhede
Statistikerin Sophia OlhedeBild: privat

"Diese Annahme kam daher, dass die Daten, auf denen die Berechnung basiert, einen 'Bias' - also einen systematischen Fehler in ihrer Schätzfunktion-  haben", sagt Sofia Olhede, Statistikprofessorin am University College London. Aktuell arbeitet sie in einer Untersuchungskommission der britischen Anwaltschaft an der Frage, wie künstliche Intelligenz im britischen Justizsystem schon heute eingesetzt wird, und wie sie in Zukunft besser verwendet werden kann. Wenn beispielsweise die Hautfarbe eine Rolle dabei spiele, wie oft jemand verhaftet und verurteilt wird oder auch wie wohlhabend jemand ist, dann spiegle das die Software in ihren Ergebnissen wider, so Olhede. Da Algorithmen sich - zwangsläufig - auf Daten aus der Vergangenheit stützen, laufe man Gefahr, die Vergangenheit zu manifestieren und den gesellschaftlichen Wandel zu ignorieren.

Justiz zugänglich machen

Diese Rückwärtsgewandtheit von Algorithmen kann für Menschen aber auch von Vorteil sein, sagt Nikolaos Aletras. Zusammen mit Kollegen entwickelte er eine Software, die in vier von fünf Fällen die gleichen Urteile fällte wie Richter am Europäischen Gerichtshof für Menschenrechte. Dabei wurden die Unterlagen vergangener Fälle analysiert. Um zu erklären, wie das funktioniert, vergleicht er Prozessunterlagen mit Filmkritiken.

"Wenn ein Algorithmus erkennen muss, ob eine Rezension positiv oder negativ ist, definieren wir ein Vokabular aus den häufigsten Wörtern in Filmkritiken, womit wir dann den Algorithmus 'trainieren'", sagt Aletras. Die Software kann dadurch zwischen Wörtern wie "gut, ausgezeichnet" für positive Bewertungen und "schlecht, schrecklich" für negative Bewertungen unterscheiden. "So kann die Software erkennen, ob eine Rezension eines neuen Films entweder positiv oder negativ ist", sagt Aletras.

In seiner Software definierte Aletras nun stattdessen Vokabeln, die beispielsweise Haftbedingungen bewerten. Das gleiche Prinzip könne in naher Zukunft den Zugang zu Justiz für viele Menschen erleichtern.

Martin Ebers
Martin Ebers: Strenge Regeln für Künstliche IntelligenzBild: privat

Denn hohe Anwaltskosten würden weniger wohlhabende Menschen oft davon abhalten, eine zivilrechtliche Klage einzureichen, so Aletras. Software könne Anwaltskanzleien helfen, basierend auf Fällen aus der Vergangenheit die Erfolgschancen einer Klage relativ preiswert vorhersagen zu können. Solche Computerprogramme werden von Anwälten bereits vereinzelt zur Prozessvorbereitung verwendet.

In Deutschland kommt künstliche Intelligenz bislang vor allem im Verwaltungsrecht zum Einsatz. Hier gebe es bereits vollautomatisierte Prozesse, sagt Martin Ebers, Rechtswissenschaftler an der Humboldt Universität zu Berlin. So stellt das Finanzamt schon  Steuerbescheide ohne menschliche Mitwirkung aus.

Klare Regeln nötig

Auch IT-unterstützte Klagen gäbe es vereinzelt schon, so Ebers. Über das Internetportal "Geblitzt.de" können die Erfolgschancen eines Einspruchs gegen Bußgelder im Straßenverkehr geprüft werden. Dank einer Software könnten Anwälte so über 2000 statt 250 Fälle pro Jahr bearbeiten. Durch die steigenden Fallzahlen wachse der Druck auf Gerichte, ebenfalls auf Softwaresysteme zurück zu greifen.

Screenshot der Internetseite www.geblitzt.de
Vorbote: geblitzt.de (Screenshot) berechnet die Erfolgschancen von Klagen vorab Bild: geblitzt.de

Doch in welchem Ausmaß künstliche Intelligenz bei der Urteilsfindung zum Einsatz kommen darf, braucht klare Regeln - darin sind sich alle drei Experten einig. In Großbritannien erarbeiten gerade Statistikprofessorin Olhede und ihre Kollegen der Untersuchungskommission Vorschläge für Regulierungen. In Deutschland schreibt das Grundgesetz vor, dass jeder Mensch das Recht hat, vor Gericht von einem menschlichen Richter angehört zu werden, so Ebers. Das mache vollautomatisierte Urteile unmöglich.

In Europa wäre der Einsatz der "Compas"-Software wie im Fall von Eric L. aus Wisconsin unter der Datenschutzgrundverordnung aufgrund mangelnder Transparenz vermutlich anfechtbar, sagt Professor Olhede. Der Europarat veröffentlichte vor kurzem zusätzlich ethische Grundprinzipien für den Gebrauch von künstlicher Intelligenz in der Justiz. Demnach sollen Algorithmen unter anderem nur dann verwendet werden, wenn nachprüfbar ist, wie sie zu ihren Ergebnissen kommen und keine Diskriminierung befördern - was im Prozess gegen Eric L. nicht der Fall war.