Skip to main content

Diskriminierende KI ist ein Brennglas unserer Gesellschaft

Künstliche Intelligenz (KI) verspricht enorme Fortschritte im Bereich Legal Tech, sei es durch automatisierte Vertragsanalysen, effizientere Fallbearbeitung oder präzisere Risikoabschätzungen. Doch wie jede Technologie ist KI nur so gut wie die Daten, mit denen sie trainiert wird. Schlechte oder verzerrte Trainingsdaten können dazu führen, dass KI Vorurteile – etwa rassistische oder diskriminierende Tendenzen – übernimmt und in ihre Entscheidungen einfließen lässt. Dies ist nicht nur ein ethisches Problem, sondern hat auch rechtliche und praktische Konsequenzen für die Nutzung von KI in der juristischen Praxis. Am Ende ist es aber vor allem eins: Es hält uns als Gesellschaft einen unangenehmen Spiegel vor, den wir sonst zu ignorieren versuchen.

1. Jura mal spannend

Dass Datenschutz einmal einigermaßen spannend und zukunftsrelevant wird hätten wohl die meisten nicht gedacht. Doch Digitalität hat, wie allseits bekannt ist, sehr viel mit Daten zu tun. Sogenannte Datenkraken wie Google sammeln all unsere Daten und durch KI-Modelle versteht man auch so langsam, wofür eigentlich. Denn ein KI-Modell hängt stark von seinen Trainingsdaten ab. Diese müssen einerseits echt, also real sein, andererseits aber auch in enormen Massen verfügbar sein. Nur so kann die KI durch unsere Daten lernen, was es heißt, ein Mensch zu sein. Und so kann sie uns immer echter und natürlicher nachahmen, bis sie wie bei ChatGPT kaum von uns zu unterscheiden ist. Hier ist ein Artikel zum Thema ChatGPT, KI und das Recht auf Vergessen vom BVerfG.

2. Warum Trainingsdaten ein Risiko bergen

KI-Modelle lernen aus großen Datenmengen, und diese Daten spiegeln oft gesellschaftliche Muster wider, einschließlich Vorurteilen. Wenn beispielsweise historische Gerichtsurteile oder juristische Dokumente als Trainingsdaten verwendet werden, können bestehende Diskriminierungen unbeabsichtigt verstärkt werden. Ein KI-System, das Risiken von Straftaten prognostizieren soll, könnte auf Basis solcher verzerrten Daten etwa Personen mit bestimmtem Hintergrund systematisch benachteiligen. Wenn etwa ein Alien auf die Erde blicken würde und sich sein Bild nur aus Kommentaren im Internet machte… dann würde es sicherlich Tendenzen annehmen, die wir nicht bei einem Richter sehen möchten. „Saubere“ Daten sind daher von Internet-Trolls und sonstigen unechten Daten bereinigt – aber eben auch sehr teuer. Nun versteht man, wieso Google oder YouTube solch riesige Imperien „kostenfrei“ anbieten können. Daten von Google Maps aus dem letzten Jahrzehnt sind für KI-Trainer nun goldwert.

3. Konkrete Herausforderungen in Legal Tech

In der juristischen Praxis könnte eine KI, die auf schlechten Daten basiert, Entscheidungen beeinflussen, die Mandanten oder Angeklagte direkt betreffen – sei es bei der Bewertung von Erfolgsaussichten eines Falls oder bei der Analyse von Gerichtsentscheidungen. Besonders problematisch wird es, wenn Kanzleien und Gerichte blind auf diese Systeme vertrauen. Fehlende Transparenz, sogenannte Black-Box-Algorithmen, verschärfen das Problem zusätzlich, da es oft unklar ist, wie die KI zu ihren Schlussfolgerungen kommt.

Ist das ein Problem?

Ja, und zwar ein ernsthaftes. In einem Rechtskontext, der auf Fairness und Gleichbehandlung basiert, ist jede Verzerrung inakzeptabel. Wenn KI Vorurteile reproduziert oder verstärkt, gefährdet das die Integrität des Rechtssystems und das Vertrauen in Legal-Tech-Lösungen. Für Kanzleien oder Unternehmen, die sich auf solche Technologien verlassen, könnte das zu Haftungsfragen und Reputationsschäden führen.

4. Lösungen und Verantwortung

Um diese Risiken zu minimieren, müssen Entwickler von Legal-Tech-KI-Systemen hohe Standards für die Qualität ihrer Trainingsdaten setzen. Dazu gehört die sorgfältige Auswahl diverser, ausgewogener und repräsentativer Datensätze. Ebenso wichtig ist eine regelmäßige Überprüfung und Anpassung der Modelle, um sicherzustellen, dass sie keine systemischen Vorurteile aufrechterhalten.

Darüber hinaus sollten Kanzleien und Unternehmen sich bewusst sein, dass KI-Werkzeuge keine neutralen Alleskönner sind. Sie sollten sich mit den Grundlagen der eingesetzten Technologie vertraut machen und bei der Auswahl von Legal-Tech-Lösungen auf Anbieter setzen, die transparente und ethisch vertretbare Systeme bereitstellen.

Die Verwendung von KI in der juristischen Praxis ist ein Meilenstein, aber auch eine Verantwortung. Nur durch die bewusste Auseinandersetzung mit Trainingsdaten und möglichen Verzerrungen können wir sicherstellen, dass KI-Lösungen in Legal Tech wirklich dazu beitragen, die Rechtswelt gerechter und effizienter zu machen – anstatt bestehende Probleme zu verschärfen.

Kostenlosen Demotermin buchen

Registrieren Sie sich und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.