Skip to main content

Kann eine KI zerstört werden?

Erhebt ein Unternehmen illegal Daten von seinen Nutzer, um damit seine KI zu trainieren stellt sich die Frage, wie der dadurch entstandene Schaden rückgängig gemacht werden kann. Einleuchtend wäre die einfache Löschung der Software. Doch ist solch eine Maßnahme effektiv? Dieses Problem stellte sich der amerikanischen Bundeshandelskammer gegenüber dem Unternehmen WW International. Wie also kann eine KI zerstört werden und wie ist die Rechtslage in Deutschland? 

1. Was ist passiert?

Das Unternehmen WW International (ehemals Weight Watchers) wurde von der US-amerikanischen Bundeshandelskammer FTC in einem Vergleich zur Durchführung eines sog. algorithmic disgorgement (zu Deutsch: einer Zerstörung ihrer Algorithmen) verpflichtet.

Der Vorwurf: WW International und ihre Tochtergesellschaft Kubo haben mit einer Fitness-App für Kinder illegal Daten über ihre Nutzer ohne das Einverständnis der Eltern erhoben. Die persönlichen Informationen und Gesundheitsdaten wurden dann zum Training der zugrunde liegenden Algorithmen verwendet, um die hauseigene KI zu verbessern.

Im Rahmen des Vergleichs wurde WW International nicht nur zur Löschung der erhobenen Daten und der Zahlung einer Strafe i.H.v. 1,5 Mio Dollar, sondern auch zur vollständigen Zerstörung der mit diesen Daten trainierten Algorithmen und Modelle verpflichtet. Diese Pflicht kommt damit einem Todesurteil für die antrainierte KI gleich. 

Problematisch ist jedoch die praktische Durchführbarkeit dieser Verpflichtung. Die Nutzung erhobener Daten lässt sich selten auf bestimmte Algorithmen eingrenzen und wirkt in anderen fort. Unklar ist, ob die Zerstörung dann auch letztere erfassen muss.

Andere Beispiele für die Nutzung illegal erhobener Daten sind [1]:

  • Eine KI soll fake news erkennen und markieren. In das Training dieser KI flossen verifizierte Nachrichtenartikel. Für die Nutzung dieser Artikel wurde jedoch keine adäquate Lizenz erworben.
  • Eine KI screent Bewerbungen. Der Algorithmus wurde jedoch mit Bewerbungen von Angestellten und abgelehnten Bewerbern ohne deren Wissen oder Zustimmung trainiert.

2. Wie funktioniert „algorithmic disgorgement“?

Die Vorsitzende der Federal Trade Commission (FTC) beschreibt den Zweck von algorithmic disgorgement so:

„The premise is simple: when companies collect data illegally, they should not be able to profit from either the data or any algorithm developed using it. […] This innovative enforcement approach should send a clear message to companies engaging in illicit data collection in order to train AI models: Not worth it.“ 

„Die Prämisse ist einfach: Wenn Unternehmen illegal Daten sammeln, sollten sie weder von den Daten noch von den damit entwickelten Algorithmen profitieren können. […] Dieser innovative Ansatz zur Vollstreckung sollte eine klare Botschaft an Unternehmen senden, die illegale Daten sammeln, um KI-Modelle zu trainieren: Das ist es nicht wert.“

Algorithms and Economic Justice, Rebecca Kelly Slaughter im Yale Journal of Law and Technology (2021) [2]

Ziel ist also die umfassende und vollständige Zerstörung der durch die illegal erhobenen Daten trainierten Algorithmen. Sofern mit den erhobenen Daten nur eine spezielle Funktion ermöglicht wurde, ist die schlichte Löschung dieses Codes ist dann hier die naheliegendste Lösung. Algorithmen sind jedoch selten so einfach aufgebaut. Viele verschiedene Datensätze fließen in das machine-learning eine Algorithmus ein. Datensätze werden aufgespalten und fließen in verschiedene Anwendungen mit ein.[3] Verknüpft die KI dann die erhobenen Daten selbstständig ist es bei zunehmender Komplexität nahezu unmöglich die Lernquellen und zugrundeliegenden Datensätze zu identifizieren. Damit wird es für ein Unternehmen immer schwerer mit Sicherheit sagen zu können, alle illegal erhobenen Daten und die damit trainierte Software gelöscht zu haben. 

Dafür bedürfte es einer lückenlosen Nachverfolgbarkeit der Datenquellen und ihrer Verwendung. Unternehmen, die sich ihrer Verantwortung gegenüber seinen Verbrauchern bewusst sind, haben solche Modelle zur Nachverfolgung und nachträglichen Aufklärung schon etabliert. Jedoch ist mindestens höchst fraglich, ob ein Unternehmen, das Daten fahrlässig oder vorsätzlich illegal erhebt überhaupt fähig oder gewillt ist, diese Nachverfolgbarkeit zu gewährleisten.

3. Algorithmic disgorgement ist eine wichtige Sanktion

Dass algorithmic disgorgement eine effektive und mächtige Sanktion gegen schwere Verstöße bei der Erhebung und Verwendung von Daten sein kann liegt auf der Hand: die Erhebung dieser Daten und das spätere Training von KI ist ressourcenintensiv. Unternehmen investieren regelmäßig hohe Summen und viel Zeit in ihre Algorithmen. Müssten sie diese Software und andere mit diesen Daten in Berührung gekommene Anwendungen restlos löschen kann dies zu erheblichen Umsatzeinbußen und Wettbewerbsnachteilen führen. Eine konsequente Umsetzung von algorithmic disgorgement wäre demnach ein erheblicher Motivator zu datenschutzkonformem Verhalten. 

Kostenlosen Demotermin buchen

Lernen Sie die Funktionen und Einsatzmöglichkeiten der cloudbasierten Anwaltssoftware Legalvisio kennen! Jetzt registrieren und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.

Demotermin buchen oder +49 228 28679390

4. Wie ist der Stand in Deutschland?

Primärer Anknüpfungspunkt für die Regulierung von KI in Deutschland und der EU ist die DSGVO. Sie gewährt beispielsweise mit den verschiedenen Informations- und Auskunftspflichten, dem Transparenzgebot oder den Vorschriften zur Verarbeitung von Daten einer Einzelperson einige Rechte, jedoch keinen umfassenden Schutz. Insbesondere ist die Zerstörung eines Algorithmus keine vorgesehene Rechtsfolge eines Verstoßes.

In ihrem Weißbuch für KI hat die EU 2020 Handlungs- und Regelungsbedarf für KI festgestellt. Daher ist zu erwarten, dass es in den nächsten Jahren zu einer regulatorischen Neuordnung der Rahmenbedingungen für den Einsatz und das Training künstlicher Intelligenz kommen wird. 

In einer Stellungnahme zum KI-Weißbuch erkennt auch die Bundesregierung an, dass die durch neue Technologien geschaffenen Risiken eine Herausforderung für den Verbraucher-und Datenschutz darstellen könnten. Sie stellt jedoch gleichzeitig fest, dass das zivile Haftungsrecht diesen Gefahren grundsätzlich ausreichend begegnen könne. Sofern in manchen Bereichen ein Handlungsbedarf ergibt, könnten jedoch an der Produkthaftungsrichtlinie punktuelle Anpassungen erfolgen. Eine Harmonisierung des nationalen Haftungsrechts in Bezug auf KI lehnt sie jedoch ab.[4]

Man darf gespannt sein, ob und wie die EU das Problem des „algorithmic disgoregement“ angehen und umsetzen wird.


[1] https://www.debevoise.com/insights/publications/2022/03/model-destruction-the-ftcs-powerful-new

[2] https://yjolt.org/sites/default/files/23_yale_j.l._tech._special_issue_1.pdf

[3] https://www.protocol.com/enterprise/ftc-algorithm-data-model-ai

[4] https://www.ki-strategie-deutschland.de/files/downloads/Stellungnahme_BReg_Weissbuch_KI.pdf

Kostenlosen Demotermin buchen

Registrieren Sie sich und wir kontaktieren Sie, um einen Demotermin zu vereinbaren.