Ein US-Gerichtsurteil hat aufgrund schwerwiegender Fehler und Verweise auf nicht existierende Gesetze und Fälle für Aufsehen gesorgt. Vor allem aber weckte der Text den Verdacht, mithilfe künstlicher Intelligenz verfasst worden zu sein. Dies hat die Debatte über den Einsatz dieser Technologie im Justizsystem neu entfacht.
Ein kürzlich ergangenes Gerichtsurteil hat im US-Bundesstaat Mississippi für Verwirrung gesorgt. Das Wichtigste ist, dass das vom Bundesrichter unterzeichnete Dokument Henry Wingate, enthält schwerwiegende sachliche Fehler.
Zu den Problemen zählen die Namen nicht existierender Kläger, falsch zitierte Gesetze der Bundesstaaten und sogar Verweise auf Fälle, die nie stattgefunden haben.
Verwirrende Anordnung weckt Verdacht
Die Verwirrung begann Anfang des Monats, als Wingate Eine einstweilige Verfügung wurde erlassen. Die mit dem Fall befassten Anwälte vermuteten sofort, dass der Text möglicherweise von künstlicher Intelligenz generiert wurde.
-
Shibam berichtet aus dem Jemen, wie vor 500 Jahren bis zu 30 Meter hohe Lehm-Wolkenkratzer zur Stadtverteidigung und vertikalen Stadtplanung in der Wüste errichtet wurden.
-
Nach einer alarmierenden Warnung über die Zukunft des Planeten fordern Wissenschaftler die Menschheit auf, ihr Erbe auf der Erde zu überdenken.
-
Vom Trump-Hotel zum Bankrott nach mehr als 2 Tagen Rechtsstreit: LSH Barra bricht aufgrund einer langen Krise, Managementfehlern und einer endgültigen Gerichtsentscheidung in Rio zusammen.
-
Das Ende des Immobilienmaklers? Ein Mann nutzt ChatGPT, um sein Haus zu verkaufen, legt Preis, Anzeige und Zeitplan mithilfe künstlicher Intelligenz fest und schließt den Deal in nur 5 Tagen ab.
In der Anordnung wurde die Bibliotheksverband von Mississippi und Delta Sigma Theta Sorority Inc. als Verfahrensbeteiligte, obwohl keiner von ihnen am Rechtsstreit beteiligt ist.
Darüber hinaus bezog sich der Text auf einen Fall aus dem Jahr 1974, den es offenbar nicht gibt. Auch nach Korrekturen blieb dieser Fehler in der überarbeiteten Fassung der Entscheidung bestehen.
"Die Eile, solche Anordnungen zu erlassen, schadet der Justiz“, sagte Anwalt Eric Wessan in den sozialen Medien.
Fehlende Erklärungen verschlimmern die Situation
Der Richter hat noch nicht über den Fall entschieden. Den Einsatz künstlicher Intelligenz bei der Urteilsfindung hat er weder bestätigt noch dementiert.
Das Schweigen verstärkt die Frustration unter Experten und Anwälten. „So etwas haben unsere Anwälte noch nie erlebt“, berichtete ein Beamter der Generalstaatsanwaltschaft von Mississippi.
Auch Christina Frohock, Professorin an der juristischen Fakultät der University of Miami, zeigte sich überrascht: „Ich fühle mich wie Alice im Wunderland“, erklärte sie.
Sie sagte, sie wisse nicht, wie sie den Ursprung so vieler Fehler erklären solle, und sprach eine heikle Frage an: Wenn der Fehler vom Richter ausgeht, gibt es keine klaren Mechanismen, um Erklärungen zu verlangen.
Debatte über KI in der Justiz gewinnt an Intensität
Frühere Fälle haben gezeigt, dass Anwälte bestraft wurden, weil sie mithilfe künstlicher Intelligenz Petitionen mit falschen Informationen verfasst hatten. Dies ist jedoch eines der ersten Male, dass einem Richter die gleiche Vorgehensweise vorgeworfen wurde.
Der Unterschied besteht nach Ansicht von Experten darin, dass es keine klaren Regeln für den Umgang mit einer solchen Situation gibt, wenn der Urheber des Fehlers der Richter selbst ist.
Daher entfacht die Episode die Debatte über den Einsatz von Werkzeugen der künstlichen Intelligenz im Justizsystem neu.
In der Zwischenzeit bleibt die Frage: Wurde die Entscheidung tatsächlich von einer KI verfasst? Wir werden es vielleicht nie erfahren.

Seien Sie der Erste, der reagiert!