Künstliche Intelligenz im Strafverfahren: Roboter als Straf­ver­tei­diger der Zukunft?

Autor*innen
Prof. Dr. Sabine Gless
Ein Mensch und ein Roboter schütteln Hände

Vom Einsatz von KI verspricht man sich Ressourcenersparnis und bessere Ergebnisse. Auch in der Welt der Juristen. Was eine Automatisierung von Rechtsanwendung für die Strafverteidigung bedeuten könnte, beleuchtet Sabine Gless.

Logo von LTO Legal Tribune Online

e‑fellows.net präsentiert: Best of LTO

Seit 2010 liefert Legal Tribune Online Nachrichten und Hintergründe rund um Recht und Justiz, Beruf und Ausbildung von Jurist:innen und ein juristisches Feuilleton.

Strafverteidigung gilt allgemein als Aufgabe, die ohne Empathie, Kreativität und eine gewisse Lebenserfahrung nicht zu bewältigen und deshalb für Roboter grundsätzlich ungeeignet erscheint. Aber stimmt das in dieser Pauschalität? Bedarf wirklich jede anwaltliche Tätigkeit des menschlichen Einfühlungsvermögens und neuer Rechtsideen?

In den vergangenen Jahren mehrten sich Meldungen über eine mögliche Strafverteidigung mit Hilfe von Künstlicher Intelligenz (KI) in der englischsprachigen Rechtswelt: Der sogenannte Robo-Anwalt DoNotPay ist schon lange auf vielen Kanälen präsent. Die juristische Rechercheplattform Casetext hat jüngst durch den Einsatz von Chatbots als "CoCounsel" von sich reden gemacht, weil es verspricht, Dokumente eigenständig zu analysieren oder mündliche Einlassungen vorzubereiten.

Diese KI-Systeme weisen auf eine rasante Entwicklung hin, die vor dem deutschsprachigen Markt nicht Halt machen wird. Auch in Deutschland dürften früher oder später für eine automatisierte Rechtsprüfung trainierte Chatbot-Modelle, insbesondere für relativ einfach strukturierte, schematisierte Verfahren – wie Verkehrsstrafsachen – geben. Als Grundlage hierfür könnte generative KI dienen, die Fortschritte beim Natural Language Processing und insbesondere bei sogenannten Large Language Models nutzt. Die Methoden analysieren Struktur und Gebrauch von Sprache, ohne auf den Inhalt zu achten.

Umfangreiches Trainingstextmaterial nötig

Mit Hilfe komplexer stochastischer Methoden lassen sich so auch auf Rechtsfragen die wahrscheinlichsten Antworten finden. Allerdings: Voraussetzung dafür ist nicht nur der Einsatz sehr komplexer mathematischer Methoden, sondern auch ein adäquates Training für die jeweilige Aufgabe. Unerlässlich ist insoweit ein quantitativ und qualitativ ausreichender Datensatz an einschlägigen maschinenlesbaren Strafverteidigungstexten.

Vor diesem Hintergrund erscheint fraglich, ob KI-Systeme für die Strafverteidigung (oder andere automatisierte Rechtsdienstleistungen) im deutschsprachigen Raum in gleicher Weise forciert werden können, wie dies in englischsprachigen Rechtssystemen bereits der Fall ist. Der Grund: In Deutschland fehlt es an einer vergleichbaren Veröffentlichungspraxis, es stehen kaum ausreichend geeignete Rechtstexte zum Training von KI-Systemen zur Verfügung.

Allerdings könnte sich das alsbald auch ändern. Unternehmen, die aufgrund ihres Geschäftsmodells über eine Vielzahl von Gerichtsentscheidungen verfügen, könnten ihre Stellung nutzen und ausreichend Trainingsdaten generieren.

Chancen einer Roboterstrafverteidigung

Wer die Idee einer Roboterstrafverteidigung direkt als Spinnerei abtut, dürfte sich aber mögliche Vorteile nicht ausreichend vor Augen geführt haben: KI-Systeme können viel mehr Text in viel kürzerer Zeit verarbeiten als Menschen. Sie werden nicht müde, haben keine schlechte Laune und können rund um die Uhr kontaktiert werden.

Gerade der niederschwellige Zugang darf nicht geringgeschätzt werden, denn Strafverteidigung sollte kein Luxus der Wohlhabenden sein. Wenn Roboterverteidiger eine Aufgabe genauso gut, aber billiger als Menschen erreichen können, könnte das langfristig unter verschiedenen Aspekten wertvoll sein: KI-Systeme könnten eine Erstberatung in Strafsachen niederschwellig gewährleisten, etwa in einfachen Verkehrs- und Ordnungsverfahren. Viele kämen dann in den Genuss von Vorteilen einer unmittelbaren Rechtsberatung, wie sie großen Unternehmen durch den Einsatz von KI bereits zur Verfügung stehen.

Derartige Vorteile kann man bereits heute sehen, etwa im Zusammenhang mit Legal-Tech-Plattformen, die Erstattungsansprüche bei verspäteten Flügen auf der Grundlage der EU-VO Fluggastrechte 295/91 von 2005 automatisiert überprüfen. Auch diverse Gerichte greifen inzwischen auf eine entsprechende Software zurück, um die Flut von Verbraucherklagen gegen Fluggesellschaften zu bewältigen.

Bei einfach gelagerten Fällen: KI als billige und akkurate Alternative

Die Erstattungs-Plattformen legen nahe, dass es von der Materie abhängen dürfte, ob Roboteranwälte in der Zukunft effizient Rechtsberatung übernehmen können: Dort, wo in einem relativ einfachen Sachverhalt letztlich Zahlen oder andere klar strukturierte Informationen entscheidend sind, dürften KI-Systeme Unterstützung bieten können. Wenn der Sachverhalt aber komplex ist und für die Verteidigung auf das Ausüben von Ermessen eingestellt werden muss, dürfte auf absehbare Zeit anwaltliche Tätigkeit in menschlicher Hand bleiben.

Bei schlichten Sachverhalten indes spricht für den Einsatz von KI-Systemen nicht nur, dass sie billiger und leichter erreichbar sind, sondern auch, dass sie auch fehlerfreier sehr viel mehr Informationen aufnehmen, aufbewahren, verarbeiten und mit anderer Information verbinden könnten. In Bereichen, in denen es vor allem um eine Argumentation auf der Grundlage von Zahlenwerten geht, etwa auch bei der Abschätzung von Rückfallrisiken, könnte das auch für Strafverteidiger:innen von Interesse sein.

Sicherung menschlicher Entscheidungsprozesse

Am Ende müssen Menschen die Verantwortung für eine Entscheidung übernehmen. Das kann beim Einsatz von KI in der (Straf-)Rechtspflege problematisch werden, wenn die Grenze zwischen bloßer Unterstützung durch KI und echter Übertragung einer Entscheidung an KI diffus ist. Denn es ist – schon aufgrund der Black Box-Problematik – kaum möglich, KI-Unterstützung kritisch zu hinterfragen. Man müsste deshalb neue Sicherungen in die Entscheidungsfindungen in der Strafjustiz einbauen, um einigermaßen zu gewährleisten, dass nicht vorurteilsbehaftete KI-Systeme unbesehen menschliche Entscheidungen vorgeben.

Zu Recht wird hier ganz grundsätzlich kritisiert, dass ein mit Wahrscheinlichkeiten operierendes KI-System gerade in der Strafjustiz gefährlich ist, weil es bereits bestehende Diskriminierungseffekte noch verstärken könnte. Allerdings dürfte – wer glaubt, menschliche Entscheidungen seien stets von kritisch-reflektierender Wertung begleitet – ein Ideal mit der Realität verwechseln, das zeigt etwa ein Blick in die Verständigungspraxis ("Deal") nach § 257c Strafprozessordnung.

Hier könnten perspektivisch Roboterstrafverteidiger durchaus überlegen sein: Sie können nicht nur große Mengen von Material verarbeiten und auf dieser Grundlage die meistversprechendste Verteidigungsstrategie entwickeln, sondern dürften sich dabei auch weniger von eigenen Interessen leiten lassen als Menschen: Es kostet sie praktisch nichts, alle Verhandlungsmöglichkeiten bei Absprachen durchzuprüfen oder einen Konflikt mit einem Gericht einzugehen, mit dem man immer wieder zu tun hat.

Diverse Risiken

Und dennoch: Ohne Risiken ist der Weg in eine Roboter-Strafverteidigung nicht. Selbst die aufgezählten Vorteile von KI-Systemen werfen bereits Schlaglichter auf gewichtige Probleme. Eines betrifft die Frage, wie ein KI-System überhaupt einen belastbaren Sachverhalt feststellt. Bei einfachen Fällen könnte man sich noch vorstellen, dass prospektive Mandant:innen die relevanten Information über ein Standardformular eingeben. Sind alle Felder ausgefüllt, könnte das KI-System seine Arbeit beginnen. Oder man könnte durch eine Aufnahme "relevanter Parameter" die Fälle rastern und dann durch die Bereitstellung von Freitextfeldern die Besonderheiten des Einzelfalls abfragen. Die Gefahr, dass rechtserhebliche Sachverhaltsmomente nicht dokumentiert werden, bleibt jedoch.

Fehlerrisiken ergeben sich daraus, dass es für viele Bereiche der Strafverteidigungsarbeit derzeit keinen quantitativ und qualitativ ausreichenden Datenpool relevanter Texte in deutscher Sprache gibt. Damit wächst die Gefahr, dass etwa Einzelfälle verallgemeinert und dadurch Vorurteile gegenüber den Angehörigen bestimmter Gruppen generiert werden. Unklar ist, ob die fehlende Masse durch ein längeres Training überwunden werden kann.

Hallucinations

Ein anderes Fehlerrisiko liegt darin, dass KI-Systeme darauf trainiert werden, immer Antworten auf Fragen zu geben, nicht aber diese kritisch zu reflektieren oder kritisch eigene Grenzen zu überprüfen. Deshalb laufen sie Gefahr, "allzu selbstbewusst" eine Antwort zu geben, auch wenn ihnen dies mit den zur Verfügung stehenden Methoden auf der Grundlage des zur Verfügung stehenden Datenmaterials nicht zuverlässig möglich ist.

Solche "Hallucinations" könnten bei einer automatisierten Rechtsanwendung zu eklatanten Fehlentscheiden führen. Das Fatale: Unter bestimmten Umständen können Menschen diese kaum erkennen, weil die konkrete Entscheidungsfindung aufgrund der Komplexität der angewendeten Methoden kaum nachvollziehbar ist. Das könnte sich ändern, denn eine größere Transparenz bei KI-getriebener Entscheidungsfindung steht hoch oben auf der Forschungsagenda und es wurden bereits beeindruckende Fortschritte erzielt.

Gefahr der Rechtsversteinerung

Eine weitere Gefahr im Einsatz von Roboterverteidigern ist eine drohende Rechtsversteinerung. Engagierte Strafverteidigung lotet in vielerlei Hinsicht strafprozessuale Freiräume aus und bringt dadurch das deutsche Strafverfahrensrecht voran.

Von KI-Systemen ist eine derart kreative Rechtserneuerung nicht zu erwarten, da sie ausschließlich auf der Grundlage bestehender Texte erfolgversprechende Ansätze prognostizieren. Wenn nur noch mit vorhersagender Analytik Muster aus vergangenen Rechtsfällen aufgearbeitet werden, entsteht nichts Neues.

Vor dem Hintergrund dieser Gemengelage aus Chancen und Risiken ist schwer abzuschätzen, ob Roboter tatsächlich eines Tages Menschen gegenüber staatlicher Strafverfolgung verteidigen. Klar ist aber, dass jetzt der Moment ist, in dem Jurist:innen sich in die Debatte einmischen und für ihre Interessen beim möglichen Einsatz von KI in der Strafrechtspflege einstehen.

© LTO. Weitere Artikel zum Thema bietet die Rubrik "Anwaltsberuf" von Legal Tribune ONLINE

Bewertung: 3/5 (2 Stimmen)