Skip to main content

Wenn die KI-Drohne sich gegen ihren Piloten richtet

Es klingt wie in einem Sci-Fi- oder Horrorfilm: Berichten zufolge soll während einer Simulation der US-Luftwaffe eine KI gesteuerte Drohne ihren eigenen Piloten angegriffen haben. Was hat das mit Auslegung unbestimmter Rechtsbegriffe, Analogien und teleologischen Reduktionen zu tun? Von Seiten der Luftwaffe heißt es, die geschilderte Situation sei nur ausgedacht und rein hypothetisch gemeint gewesen. Von einem Missverständnis eines ihrer Mitarbeiter ist die Rede. Doch ist es im Grunde auch egal, ob es stimmt oder nicht, denn dass die Situation realistisch zeigen die Beweggründe der KI. Was heißen solche Probleme für den gezielten und großflächige Einsatz von KI in unser aller Leben und für die schwarzseherischen Szenarien vom Ende der Menschheit durch KI?

1. Worum es geht

In der Simulation (unabhängig davon, ob Gedankenbeispiel oder echt) geht es um sogenannte KI-gestützte oder gar KI-gesteuerte Drohnen. Dies sind unbemannte Drohnen, die jedoch nicht etwa die Größe von einer Spielzeugdrohne haben, sondern eher einem kleinem Flugzeug ähneln. Diese Drohnen gibt es zur Aufklärung, oder aber sie sind wie hier mit Raketen ausgerüstet. Der Drohne wird daraufhin ein Ziel gegeben, zu dem sie sozusagen wie per Autopilot hinfliegt und sodann eine Anfrage zum Abfeuern ihrer Raketen an ihren Piloten oder Operator gibt. Dieser muss daraufhin den Abschuss bestätigen.

Kostenlosen Demotermin buchen

Lernen Sie die Funktionen und Einsatzmöglichkeiten der cloudbasierten Anwaltssoftware Legalvisio kennen! Jetzt registrieren und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Demotermin buchen oder +49 228 28679390

2. Was war passiert?

Nun kam es aber zu einer überraschenden Wende während der Simulation. Die Drohne hatte die Aufgabe, ein markiertes Ziel zu zerstören und hob zunächst auch bestimmungsgemäß ab. Doch nun kam eine verwunderliche Entscheidung der Drohne: Sie „tötete“ ihren Operator. In der Simulation feuerte sie also auf diesen – wobei bei genauem Überlegen unklar bleibt, wie sie das konnte, wenn doch vor einem Abschuss immer der Operator dies bestätigen muss. Doch angenommen, dass die Drohne nun eigenständig feuern konnte, wie kam sie auf diese Idee? Wieso wechselte sie die Seiten und griff ihre eigenen Befehlshaber an?

3. Die Motivation der KI

Tatsächlich geht es hierbei nicht um Hacker oder Störsignale, sondern alles funktionierte eigentlich nach Plan. Wenn man die KI fragen würde, hielte sie ihr Handeln sicher auch für absolut richtig und würde nicht verstehen, was sie falsch gemacht haben soll. Sie wäre stolz auf ihre Idee, denn das vorgegebene Ziel konnte sie so besser und schneller erreichen: Durch die Tötung ihres Vorgesetzten gab es niemanden mehr, der ihr einen Abschuss des Ziels bestätigen musste! Somit war es für sie ein logischer Schritt, dieses Hindernis für ihre Aufgabenerfüllung zu beseitigen. In schwarz-weiß gedacht ist dies nachvollziehbar, erst mit unserem menschlichen Weiterdenken wird klar, dass diese Aktion trotzdem nicht richtig war.

4. Einfache Lösung?

Nun ja, aber dieses Problem lässt sich doch leicht beheben, oder? Der KI wird einprogrammiert, dass sie ihren Befehlshaber nicht töten darf. Problem: Was, wenn dieser mal zum Verräter wird und nun doch getötet werde soll? Oder generelles Problem der KI: Darf nicht der Operator getötet werden, um einen Atomangriff auf die ganzen USA zu verhindern?

Im vorliegenden Fall wurde der KI beigebracht, dass sie für das töten eigener Leute Strafpunkte bekommt. Doch die KI hatte auch hierfür eine Lösung: Sie zerstörte den Funkturm, der die Kommunikation zwischen dem Operator und ihr erlaubte.

Lesen Sie mehr in unserem Newsletter

5. Was zeigt das?

An dem (Gedanken-)Beispiel wird deutlich, wie genau mit einer KI gearbeitet werden muss. Das altbekannte Problem der Regeln für KI ist eben nicht so leicht zu lösen. Schon bei „iRobot“ haben die drei goldenen Regeln nicht gereicht und in der heutigen Zeit reichen eben nicht einmal 3000 Regeln. Es muss vielmehr ein Grundprinzip vermittelt werden, sodass nicht jeder Einzelfall geregelt sein muss. Dieses juristische bekannte Problem wird in der Rechtswissenschaft durch Auslegung unbestimmter Rechtsbegriffe, Analogien und teleologischen Reduktion gelöst. Doch einer KI diese Sachen beizubringen bedeutet, ihr ein menschliches Bewusstsein mit Vernunft vermitteln zu wollen.

Kostenlosen Demotermin buchen

Registrieren Sie sich und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Ähnliche Beiträge

Feature News: DATEV-Export

  • Christian Dietze
  • 17.11.2025

Feature News: Unlukrative Akten

  • Christian Dietze
  • 08.11.2025