Einsatz von ChatGPT im Justizbereich

Einsatz von ChatGPT im Justizbereich

17.06.2023 in Jura & Lehre

Anhörung von Sachverständigen im Rechtsausschuss des Landtags NRW am 13.06.2023

Dass sich Politik um das Thema KI in der Justiz Gedanken macht, kommt nicht von ungefähr. Gerichtsurteile, die mit Unterstützung von ChatGPT und Co. gesprochen werden, sind längst Realität. Dazu hatte ich in GERICHTSURTEILE MIT CHATGPT im März 2023 bereits berichtet.

Nun stand das Thema am vergangenen Dienstag auf der Tagesordnung des Landtags Nordrhein-Westfalen. Von den eingeladenen Sachverständigen wurden Antworten auf einen beachtlichen Katalog von 20 (!) Fragen erwartet. Fragen, die es in sich hatten:

  1. In welchem rechtlichen Verhältnis stehen die „richterliche Unabhängigkeit“ des Art 97 GG und das Recht jeden Einzelnen auf den „gesetzlichen Richter“ Art 101 I 1 GG bzgl. der Verwendung von ChatGPT oder einer vergleichbaren KI-Software durch die Justiz?
  2. Besteht die Gefahr, dass Urteile von Richtern und Beschlüsse von Rechtspflegern in Zukunft vollständig durch ChatGPT gefertigt werden und nähern wir uns damit der Gefahr eines „Robo-Jugdes“?
  3. In dem Artikel: WISSEN, Freitag, 17. März 2023, Artikel ¼, „KI – Bald intelligenter als ein Mensch?“ heißt es: „Jedenfalls macht GPT-4 nochmals Fortschritte bei Aufgaben, die auch der Vorgänger GPT-3.5 schon konnte. So schnitt GPT-4 bei akademischen Tests teilweise deutlich besser ab. Bei einigen, etwa einem juristischen Test, lag seine Leistung im besten Zehntel der menschlichen Testteilnehmer.“ Was bedeutet dies für die Arbeit von Gerichten, Verwaltungen, Rechtspflegern, etc. in Zukunft?
  4. Die Forderungen nach einer „Charta der Robotik“ geht zurück auf einen Bericht des Rechtsausschusses des Europäischen Parlaments mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103(INL)) vom 27.1.2017 (A8-0005/2017), dort heißt es: „Der für das Gebiet der Robotik vorgeschlagene ethische Verhaltenskodex schafft die Grundlagen für die Ermittlung, Aufsicht und Einhaltung der ethischen Grundsätze bereits von der Planungs- und Entwicklungsphase an.“ Was bedeutet dies für die Entwicklung von KI-Systemen und die Verwendung durch die Justiz und die Verwaltung?
  5. „KI darf den Menschen nicht ersetzen“, Der deutsche Ethikrat äußert sich in seinem Bericht vom 20.3.2023 zum Verhältnis von Mensch und Maschine – in Schule, Medizin, sozialen Medien und Verwaltung. Auf Seite 249 des Berichts weist der Ethikrat auf die Grundrechtsbindung der öffentlichen Verwaltung hin und der daraus folgenden Anforderungen an die Nutzung der KI durch staatliche Einrichtungen, dort heißt es: „Aufgrund ihrer Grundrechtsbindung sind an staatliche Einrichtungen bei der Entwicklung und Nutzung algorithmischer Systeme hohe Anforderungen in Bezug auf Transparenz und Nachvollziehbarkeit zu stellen, um den Schutz vor Diskriminierung zu gewährleisten sowie Begründungspflichten erfüllen zu können.“ Welche rechtlichen Folgen haben diese Aussagen für die Verwendung von ChatGPT oder eines ähnlichen KI-Systems für das Rechtssystem?
  6. Wo sind die ethischen Grenzen des Einsatzes künstlicher Intelligenz bei juristischer Entscheidungsfindung zu finden und durch den Gesetzgeber zu ziehen?
  7. Wo sind die verfassungsrechtlichen Grenzen des Einsatzes künstlicher Intelligenz bei juristischer Entscheidungsfindung zu finden oder sind diese durch den Gesetzgeber neu zu ziehen?
  8. Das Urteil des kolumbianischen Richters Padilla vom 30. Januar 2023 umfasste mit gut 29% der Entscheidungsgründe Textteilte von ChatGPT. Damit waren die Aussagen von ChatGPT nicht die einzigen Entscheidungsgründe, jedoch waren sie ein entscheidender Beitrag zur Entscheidungsfindung.( vgl. ChatGPT in Colombian Courts, Why we need to have a conversation about the digital literacy of the judiciary, in: https://verfassungsblog.de/colombian-chatgpt/) Wie wäre es rechtlich zu bewerten, wenn ein Urteil zu 50% und mehr, eventuell 100%, der Entscheidungsgründe aus Textteilen von ChatGPT besteht?
  9. Eignet sich ChatGPT für den Einsatz in der Justiz?
  10. Wenn ja, in welchen Bereichen und in welchem Umfang?
  11. Wenn nein, weshalb nicht?
  12. Wo sehen Sie mögliche Gefahren und Risiken beim Einsatz solcher und ähnlicher Programme in der Justiz?
  13. Wie schätzen Sie die Problematik der Intransparenz und fehlenden Nachvollziehbarkeit solcher Programme ein?
  14. Welche Potenziale sehen Sie im Einsatz solcher oder ähnlicher Systeme in der Justiz unter welchen Voraussetzungen?
  15. Wie beurteilen Sie die Nutzung von ChatGPT durch Richterinnen und Richter zum Verfassen von Urteilen?
  16. Inwieweit wird durch die Anwendung von ChatGPT durch die Richterschaft Grundrechte verletzt?
  17. Inwieweit ist die Nutzung von ChatGPT, insbesondere die durch ChatGPT generierten Texte, Textkörper, Entscheidungen und sonstigen Resultate, für die Richterschaft transparent und nachvollziehbar?
  18. In Anlehnung an Frage Nummer 17: Auf welche Daten, Datensätze und sonstigen Inhalte greift ChatGPT zurück, um solche Texte und sonstigen Resultate wie unter Frage Nummer 3 zu generieren?
  19. Inwieweit werden die unter Frage Nummer 4 genannten Daten, Datensätze und sonstigen Inhalte aktualisiert und durch wen? Wie werden diese Daten und von wem durch externe schädliche Beeinflussung geschützt? In Anlehnung an Frage Nummer 3: Bietet ChatGPT mehrere Texte und sonstigen Resultate an mit divergierenden Inhalten zu einer konkreten Anfrage (mithin einer konkreten Nutzung), die transparent und nachvollziehbar sind, mithin der dem Programm anwendenden Richterschaft eine Auswahl zwischen mehreren Texten und sonstigen Resultaten ermöglichen?
  20. Inwieweit werden die zur Nutzung von ChatGPT notwendigen Angaben, aus denen heraus das Programm einen Text generiert, gespeichert (vor allem: wo) und wer hat Zugriff auf diese Informationen? Was passiert mit diesen Daten? Inwieweit bestehen insoweit rechtliche Bedenken, vor allem mit Blick auf Grundrechte und datenschutzrechtliche Vorgaben?

Die Sachverständigen haben dazu – in Vorbereitung auf die Anhörung – ihre schriftliche Stellungnahmen abgeben. Diese können in der Dokumentensammlung des Landtags abgerufen werden.

Die Videoaufzeichnung der Anhörung kann man sich hier ansehen: https://www.landtag.nrw.de/home/mediathek/video.html?kid=45f10c13-58f7-4587-b344-cf47a092681c

Die wichtigsten Erkenntnisse der Anhörung knapp zusammengefasst:

  • Der Einsatz von ChatGPT zur Erstellung von Urteilen wurde ausgeschlossen.
  • Die Verwendung speziell für die Justiz entwickelter generativer Sprachmodelle biete jedoch erhebliche Chancen.
  • Es wurde betont, dass jetzt der richtige Zeitpunkt sei, um Konzepte zu entwickeln und finanzielle sowie personelle Ressourcen in ein solches Projekt zu investieren.
  • Es bestehe ein Bedarf an einer besseren digitalen Kompetenz in der Justiz. Daher sollten Schulungs- und Aufklärungskonzepte entwickelt werden, um diese zu fördern.
  • Eine zukünftige Nutzung von generativen Sprachmodellen erfordere ein umfassendes Konzept. Es sei wichtig sicherzustellen, dass den Nutzern die Grenzen der Anwendung bewusst sind und die Auswirkungen auf die Justiz kontinuierlich überwacht werden. Bei Bedarf sollten schnelle Anpassungen vorgenommen werden, um möglichen Fehlentwicklungen entgegenzuwirken.

In den nächsten Wochen werde ich die Aspekte aus dem Fragenkatalog hier ausführlicher beleuchten und dazu die jeweiligen Stellungnahmen der Sachverständigen zusammenfassen und analysieren.

Schlagworte: , , , , ,

Copyright © 2009-2024 by multimedia and more - - Impressum - powered by WordPress - Portfolio Theme deGusto by ThemeShift.com.