Skip to main content

Wird es eine ethische KI geben oder wird sie wie wir?

Anthropologie beschäftigt sich verkürzt gesagt mit dem Menschen. Wird es ein solches Fach auch für KI geben? Denn die Natur der KI kann sich ebenso vielfältig entfalten und facettenreich werden wie die des Menschen. Eine Technik die uns nachahmt, sollte sie dann alles von uns übernehmen oder nur die guten Eigenschaften? Und was an unserer Natur des Menschen ist gut und schlecht? Gerade im Hinblick auf die juristische Einordnung dieser ewig alten Frage ist es spannend, sich rechtsdogmatisch- und philosophisch mit der Frage zu beschäftigen, wie (und nicht was oder wann) KI ist. Ist sie Spiegel unserer selbst oder Werkzeug? Und was bedeutet das für Regulierung und Justiziabilität?

1. Was ist KI überhaupt?

„Sie imitiert menschliche kognitive Fähigkeiten, indem sie Informationen aus Eingabedaten erkennt und sortiert. Diese Intelligenz kann auf programmierten Abläufen basieren oder durch maschinelles Lernen erzeugt werden. Bei maschinellen Lernverfahren erlernt ein Algorithmus durch Wiederholung selbstständig eine Aufgabe zu erfüllen. Die Maschine orientiert sich dabei an einem vorgegebenen Gütekriterium und dem Informationsgehalt der Daten. Anders als bei herkömmlichen Algorithmen wird kein Lösungsweg modelliert. Der Computer lernt selbstständig die Struktur der Daten zu erkennen. Beispielsweise können Roboter selbst erlernen, wie sie bestimmte Objekte greifen müssen, um sie von A nach zu B transportieren. Sie bekommen nur gesagt, von wo und nach wo sie die Objekte transportieren sollen. Wie genau der Roboter greift, erlernt er durch das wiederholte Ausprobieren und durch Feedback aus erfolgreichen Versuchen“, so das Frauenhofer Institut.

2. Die Natur von KI

Grundsätzlich ist die KI eine Maschine, die wir Menschen bauen. Insofern können wir ihre Grundzüge vorgeben und man sollte meinen, dass so auch ihre Natur von uns bestimmt werden kann. Und das ist auch in Bezug auf kleinere Modelle der Fall, jedoch werden große und selbstlernende Modelle zu unübersichtlich, als dass man es sich als menschlich geschriebene Zeilen Code vorstellen kann. Und so ist es gar nicht immer so sicher vorauszusagen, in welche Richtung sich die KI entwickeln wird. Das ist nicht als dystopisches Endzeit-Bild mit Machtergreifung der Maschinen zu verstehen. Es ist vielmehr im Kleinen: Immer wieder werden Forscher damit überrascht, dass die KI die ihr gestellte Aufgabe auf eine Weise löst, die gar nicht in Betracht gezogen wurde.

Kostenlosen Demotermin buchen

Lernen Sie die Funktionen und Einsatzmöglichkeiten der cloudbasierten Anwaltssoftware Legalvisio kennen! Jetzt registrieren und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Demotermin buchen oder +49 228 28679390

3. Wird sie gut oder menschlich?

Eine menschliche KI. Das klingt erstmal wünschenswert, doch sollte uns eigentlich Angst machen. Ja, wenn wir an unsere Spezies denken, dann denken wir erstmal an eine tolle Gemeinschaft und Solidarität und eindrucksvolle Erfolge. Im Gegensatz zu kannibalischen Tieren sind wir Menschen ja so viel höhere Wesen, die mit Moral und Rationalität an Probleme gemeinsam herangehen. Doc seien wir mal ehrlich: Sehr viel egoistischer als den Menschen geht es gar nicht. Wir zerstören sogar unseren eigenen Planeten aus Profitgier. Sind das die Werte, die wir eine KI nachahmen lassen wollen? Wäre es wirklich so gut, wenn eine Maschine, die unsere Fähigkeiten und Rechenleistung ums Unendliche übertrifft sich bei uns abschaut, wie wir mit der uns unterlegenen Um- und Tierwelt umgehen?

4. Ethische KI

Aber wenn wir doch die Entwicklung der KI (noch) zumindest in Maßen beeinflussen können, dann könnten wir doch einfach ihr erhabenere Moral und Werte antrainieren, oder? Ja, das geht. Wir geben schließlich die Spielregeln vor, in denen sich die KI entwickelt. Erneut: Es geht nicht um die goldenen Regeln keinen Menschen zu töten wie beim Aufstieg der Maschinen in „I Robot“ mit Will Smith. Es geht darum, wie die KI Antworten auf rassistische Fragen gibt. Wie sie Portfolios an Aktien verwaltet und welche Handlungsempfehlungen sie zum Umweltschutz gibt. Das tolle ist: KI ist schlau und vor allem mit einer unzähligen Menge an Quellen gefüttert. Wissenschaftsverweigerung und einseitiges Querdenken sind so weniger leicht. Dennoch bestehen große Gefahren für die KI im Hinblick auf ihre eigenen Werte. Denn solange Menschen beteiligt sind, wird die KI leider „schlecht“ sein.

Lesen Sie mehr in unserem Newsletter

5. Kapitalismus siegt

Denn leider wird die führende KI nicht etwa von uns allen demokratisch entwickelt – nicht mal von einem an Regeln gebundenen Staat. Nein, sie wird von privaten Unternehmen entwickelt. Und die haben in einem kapitalistischen Marktsystem sehr viel andere Sorgen als Moral. Es geht um Leistungsfähigkeit, Wettbewerb und Geld. Es lohnt sich nicht, eine faire KI zu entwickeln. Und schon gar nicht, wenn man dadurch Zeit oder Geld verliert. Gerade das sollten Juristen im Hinterkopf behalten, wenn es um die rechtliche Würdigung von KI geht. Unreine, billige Trainingsdaten führen zu verzerrten Bildern der KI, die menschliches Fehlveralten fortsetzen. Doch können wir am Ende überhaupt die KI dafür bestrafen? Es kommt doch schlussendlich eh alles von uns. Unser Spiegelbild hat eben leider auch unsere hässlichen Seiten angenommen, dann sollten wir es auch an den gleichen Maßstäben messen wie uns – eigene Subjektqualität hin oder her.

Kostenlosen Demotermin buchen

Registrieren Sie sich und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.