Man kennt es noch aus der Schulzeit: Nach einem Diktat oder einer Klassenarbeit müssen neben den inhaltlichen Fehler auch die Rechtschreibfehler korrigiert werden. Meist sah man sich dazu das angestrichene Wort an, erkannte den Fehler und schrieb es dann eventuell nochmal richtig auf. Und wenn alles nach Plan läuft macht man diesen Fehler dann beim nächsten Text nicht nochmal. KI hingegen vollzieht sozusagen nur diesen letzten Schritt. Klingt nach Effizienz, birgt aber erhebliche Gefahren.

1. Der Schuldkind-Vergleich
In der Tat ist es dabei richtig, dass eine KI lernt, ähnlich einem Schüler. Dennoch hinkt der Vergleich insgesamt so sehr, dass es sich eher um KI-Blasphemie handelt. Denn zwar bringen tatsächlich Menschen der KI Sachen bei und korrigieren ihre Fehler – es ist aber als würde der Lehrer einem hochbegabten Kind das ABC beibringen. KI macht nämlich zwar viele Fehler, aber in Relation zum gigantischen Wissenszuwachs und dem Übertreffen des menschlich Leistbaren in so vielen Gebieten tut man der KI doch etwas Unrecht, sie für einen Schüler zu halten.
2. Uneinsichtig bei Fehlern
Überraschenderweise kann die KI sogar eine Sache sehr viel schlechter (oder besser?) als Schüler: KI kann Fehler schlecht wiederholen. Das klingt zunächst positiv, denn genau das ist ja das Ziel von Üben und Lernen. Allerdings ist das Reproduzieren (fremder) Fehler enorm wichtig, um die Herkunft des Fehlers zu verstehen. t3n berichtet: Getestet wurde dies in einer Studie zu Coding, an der Claude und ChatGPT „teilnahmen“ bzw. in der sie getestet wurden. Während für Problemaufwürfe ganz überwiegend plausible und richtige Lösungswege aufgezeigt werden konnten so scheiterte die KI beim Erkennen fremder Fehler bzw. beim Verstehen dieser.

Kostenlosen Demotermin buchen
Lernen Sie die Funktionen und Einsatzmöglichkeiten der cloudbasierten Anwaltssoftware Legalvisio kennen! Jetzt registrieren und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

3. Fehler sehen ist nicht erkennen
„Er erkannte seinen Fehler.“ Das ist für einen Schüler wohl kein großer Trost, schließlich wollte er den Fehler gar nicht erst machen. Dennoch passiert beim Erkennen der eigenen Fehler etwas überaus wichtiges, was in der Phrase „aus Fehlern lernt man“ zusammengefasst werden kann. Eine KI etwa erkennt ihren Fehler nicht wirklich. Sie sieht, dass ein Fehler vorliegt, akzeptiert dies und wird ihn in Zukunft nicht nochmal auf dieselbe Art und Weise begehen. Sie versteht aber nicht zwingend, warum es denn ein Fehler war. Das ist, als ob ein Schüler sein Diktat mit lauter markierten Fehlern ansehen würde, aber nie die Rechtschreibregeln dahinter verstanden hätte. Er würde dann beim exakt gleichen Satz nicht nochmal den Fehler begehen (zumindest die KI, denn sie ist nicht so vergesslich wie wir).
4. Wozu Verständnis wichtig ist
Sobald aber der Satzbau anders ist, wäre das Verständnis der Komma-Setzung wichtig, um nicht einen neuen Fehler im alten Gewand zu begehen. Nun ist auch das nicht ganz richtig: Es ist ja gerade die große Errungenschaft der LLMs, dass sie nicht wie eine Word-Suchfunktion nur nach einem starren Aufeinanderfolgen an Wörtern sucht. Sondern auch bei verändertem Satzbau und Synonymen kann sie eine Passage in einem Vertrag „verstehen“ und dem Anwalt markieren. Es ging in der Studie aber eben um andere Fähigkeiten der KI und bis eine wirkliche Intelligenz besteht, kann die KI eben nur, was ihr beigebracht wurde reproduzieren, aber nie verstehen.

5. Warum reden wir dann von künstlicher „Intelligenz“?
Es ist ein altes Problem der Philosophie: Wenn eine Maschine nun alles nachahmen kann, was unser menschliches Gehirn auch kann, ist sie dann intelligent? Wenn sie es uns sehr clever verkauft dann wirkt es so, als würde die KI unsere Frage oder unser Problem wirklich verstehen. Das tut sie aber nicht. Und das muss sie auch gar nicht, um trotzdem eine Weltrevolution zu sein und uns in Sachen „Denken“ zu übertreffen. Es birgt jedoch gefahren, weil so beim Trainieren eines KI-Modells mit einem anderen die gleichen Fehler nicht erkannt werden können und sich so tief im „Gehirn“ einschleifen. Gerade bei einem Einsatz von KI in der kritischen Rechtsbranche muss daher beim Monitoring ein besonderer Fokus liegen.