Skip to main content

Herausforderungen der KI: Transparenz und Verständlichkeit

Beim Thema Künstliche Intelligenz wirkt es fast so, als lägen ihre einzigen Grenzen bei der Rechenleistung. Sobald ein noch leistungsfähigerer Computer zur Verfügung steht, potenziert sich sofort auch die Macht der KI. Abseits und trotz (!) dieser technischen Hindernisse, darf KI dabei nicht zu etwas mutieren, wovor Menschen sich fürchten, wenn sie eingesetzt werden möchte. Denn was könnte mehr von jeglicher Form der Digitalisierung oder dem Einsatz von KI abhalten, als das Bild aus Science-Fiction-Filmen mit übermächtigen Computern, die nicht mehr zu kontrollieren sind. In einem Artikel auf artificiallawyer.com äußern sich dazu Minesh Tanna (Solicitor Advocate and Global AI Lead at Simmons&Simmons) und Jacob Turner (Autor des Buchs ‘Robot Rules: Regulating Artificial Intelligence‘). Hier ihre Leit-Gedanken:

Kostenlosen Demotermin buchen

Lernen Sie die Funktionen und Einsatzmöglichkeiten der cloudbasierten Anwaltssoftware Legalvisio kennen! Jetzt registrieren und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Demotermin buchen oder +49 228 28679390

Komplexität

Der Einsatz von KI nimmt zu, insbesondere seit dem Beginn der Covid-Pandemie. In einer aktuellen Umfrage stellte Gartner fest, dass 33 % der Technologie- und Dienstleistungsunternehmen bis 2023 mehr als 1 Million US-Dollar für KI ausgeben werden.

Gleichzeitig werden die KI-Technologien immer komplexer. Ein Hauptproblem bei der KI ist der ihr innewohnende Mangel an Transparenz. Zwar sind Menschen in der Regel stark an der Entwicklung eines KI-Systems beteiligt – von der Auswahl der richtigen Daten zum Trainieren des KI-Systems bis hin zum Testen des KI-Systems vor dem Einsatz -, doch sind sie oft nicht in der Lage, genau zu erklären, wie das KI-System funktioniert.

Der Entwickler einer KI-Software, die zum Steuern eines autonomen Fahrzeugs verwendet wird, kann beispielsweise volles Vertrauen in die Genauigkeit der Entscheidungsfindung des Fahrzeugs haben, wird aber aufgrund der Komplexität des Entscheidungsprozesses nicht in der Lage sein zu erklären, wie das Fahrzeug jede einzelne dieser Entscheidungen trifft.

Problem

Dieser inhärente Mangel an Transparenz ist problematisch. Wenn beispielsweise ein Arbeitgeber KI einsetzt, um Bewerber für eine offene Stelle zu bewerten, und das KI-System einen bestimmten Bewerber ablehnt, der Arbeitgeber aber nicht erklären kann, warum, dann öffnet dies Tür und Tor für Klagen wegen Diskriminierung und anderer potenziell schädlicher Auswirkungen. Wenn man der KI nicht trauen kann, sind Unternehmen und Verbraucher möglicherweise weniger bereit, die Technologie zu nutzen.

Infolge dieser Problematik rücken Erklärbarkeit und Transparenz von KI zunehmend in den Mittelpunkt. Regulierungsbehörden und politische Gruppen auf der ganzen Welt haben die Bedeutung einer erklärbaren/transparenten KI hervorgehoben, und dieses Thema bildet einen Eckpfeiler des Dialogs und des Rahmens für die „ethische“ oder „verantwortungsvolle“ Entwicklung und Nutzung von KI.

Rechtliches (DSGVO)

Es gibt auch eine rechtliche Verpflichtung, KI erklärbar zu machen. Die Artikel 13-15 der Datenschutz-Grundverordnung wurden von Gerichten und Regulierungsbehörden dahingehend ausgelegt, dass Einzelpersonen ein Recht auf Erklärung haben, wenn ihre personenbezogenen Daten von einer Organisation für eine ausschließlich automatisierte Entscheidungsfindung (zu der auch KI gehört) verwendet wurden, die eine rechtliche oder ähnlich erhebliche Auswirkung auf die betreffende Person hat. Zu den Entscheidungen, die dem Recht auf Erklärung unterliegen, könnten die Gewährung von Darlehen, die Zulassung zu Universitäten oder Schulen, die Aufdeckung von Betrug, Stellenangebote, Entscheidungen über Sozialleistungen und möglicherweise sogar einige Werbemaßnahmen gehören, bei denen Personen mithilfe von KI profiliert werden.

Tipp

Es ist daher sinnvoll, dass Organisationen, die KI einsetzen (insbesondere solche, die mit der Verarbeitung personenbezogener Daten verbunden sind), sich mit diesem Risiko auseinandersetzen und Maßnahmen ergreifen, um die Transparenz ihrer KI-Systeme zu erhöhen. Eine Möglichkeit, dies zu tun, besteht darin, eine Erklärung zur KI zu entwickeln und zu veröffentlichen: Ein Dokument, in dem erklärt wird, wie und warum KI eingesetzt wird, wie KI-Systeme konzipiert sind und funktionieren und wer für die einzelnen Phasen ihres Lebenszyklus verantwortlich ist. Die Bereitstellung solcher Informationen ist eine Möglichkeit, die Vorgaben des britischen Information Commissioner’s Office (ICO) und der Leitlinien des Turing-Instituts zur Erklärbarkeit von KI im Rahmen der Datenschutz-Grundverordnung zu erfüllen.

Beispiel: Das Unternehmen Healthily, das Symptome im Gesundheitswesen prüft, veröffentlichte kürzlich die weltweit erste „Declaration of AI“, die vom ICO unterstützt wurde.

Transparenz & Erklärbarkeit

Sowohl der Datenschutz als auch die ESG-Compliance beruhen auf einer Kombination aus internen Aufzeichnungen und einer öffentlichen Offenlegung der Art und Weise, wie eine Organisation ihren Verpflichtungen nachkommt. Angesichts der oben beschriebenen zunehmenden behördlichen und rechtlichen Kontrolle sollte die ethische KI-Governance nun auf dieselbe Weise angegangen werden. Dies beginnt mit Transparenz und Erklärbarkeit.

Kostenlosen Demotermin buchen

Registrieren Sie sich und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Ähnliche Beiträge

Feature News: DATEV-Export

  • Christian Dietze
  • 17.11.2025

Feature News: Unlukrative Akten

  • Christian Dietze
  • 08.11.2025