OpenAI ändert seine Strategie und unterstützt den Gesetzentwurf von Illinois zur Begrenzung der Haftung für KI-bedingte Katastrophen

16

OpenAI hat sich von einer defensiven Haltung zu einer aktiven gesetzgeberischen Rolle entwickelt und signalisiert damit eine neue Richtung bei der Art und Weise, wie das Unternehmen mit den wachsenden rechtlichen Risiken der künstlichen Intelligenz umgeht. Das Unternehmen unterstützt jetzt öffentlich einen Gesetzesentwurf des Staates Illinois, SB 3444, der darauf abzielt, „Grenz“-KI-Entwickler vor der rechtlichen Haftung im Falle katastrophaler gesellschaftlicher Schäden zu schützen.

Der Kern von SB 3444: Entwickler vor „kritischen Schäden“ schützen

Die vorgeschlagene Gesetzgebung schafft einen rechtlichen „sicheren Hafen“ für Entwickler leistungsstarker KI-Modelle. Nach dem Gesetzentwurf würden Unternehmen nicht für „kritische Schäden“ haftbar gemacht – definiert als Vorfälle, die zum Tod oder zu schweren Verletzungen von 100 oder mehr Menschen oder zu Sachschäden von mehr als 1 Milliarde US-Dollar führen –, sofern sie zwei bestimmte Kriterien erfüllen:
1. Sie haben bei der Verursachung des Vorfalls nicht vorsätzlich oder rücksichtslos gehandelt.
2. Sie haben regelmäßig Sicherheits- und Transparenzberichte veröffentlicht.

Der Gesetzentwurf zielt speziell auf „Grenzmodelle“ ab – solche, deren Training mehr als 100 Millionen US-Dollar an Rechenkosten erfordert. Diese Definition deckt effektiv die Schwergewichte der Branche ab, darunter OpenAI, Google, Meta, Anthropic und xAI.

Der Umfang „kritischer Schäden“ umfasst Extremszenarien, z. B. wenn ein böswilliger Akteur KI nutzt, um chemische, biologische, radiologische oder nukleare Waffen zu entwickeln, oder wenn ein KI-Modell autonom auf eine Weise handelt, die als Straftat gelten würde, wenn sie von einem Menschen begangen würde.

Ein strategischer Wandel hin zur föderalen Harmonisierung

Dieser Schritt stellt eine bedeutende Änderung im Ansatz von OpenAI dar. Zuvor konzentrierte sich das Unternehmen hauptsächlich auf die Bekämpfung von Vorschriften, die es für die durch seine Technologie verursachten Schäden zur Verantwortung ziehen könnten. Durch die Unterstützung von SB 3444 versucht OpenAI, die Spielregeln zu gestalten, anstatt nur auf sie zu reagieren.

OpenAI argumentiert, dass dieser Ansatz zwei Hauptzwecken dient:
Risikominderung: Die Regulierungsbemühungen konzentrieren sich auf die fortschrittlichsten, potenziell gefährlichen Systeme.
Standardisierung: Ziel ist es, einen „Flickenteppich“ verschiedener Gesetze in jedem Staat zu verhindern, der zu rechtlichen Spannungen führen und Innovationen verlangsamen könnte.

„Der Nordstern der Grenzregulierung sollte der sichere Einsatz der fortschrittlichsten Modelle sein, der auch die Innovationsführerschaft der USA wahrt“, erklärte Caitlin Niedermeyer vom Global Affairs-Team von OpenAI.

Diese Perspektive steht im Einklang mit einem umfassenderen Trend im Silicon Valley: dem Wunsch nach einem einheitlichen föderalen Rahmen, der sicherstellt, dass amerikanische Unternehmen weltweit konkurrieren können, ohne durch inkonsistente Anforderungen auf Landesebene ausgebremst zu werden.

Die Hürden: Öffentliche Meinung und rechtliche Präzedenzfälle

Trotz der Unterstützung von Branchenriesen steht der Gesetzentwurf in Illinois vor einem schwierigen Weg. Der Staat blickt auf eine Geschichte aggressiver Technologieregulierung zurück, darunter auch frühe Gesetze zu biometrischen Daten und psychischen Gesundheitsdiensten.

Kritiker und Politikexperten äußern mehrere erhebliche Bedenken:
Öffentlicher Widerstand: Daten deuten darauf hin, dass die Mehrheit der Einwohner von Illinois gegen die Gewährung von Haftungsausnahmen für KI-Unternehmen ist.
Individueller vs. Massenschaden: SB 3444 konzentriert sich zwar auf Massenopfer und milliardenschwere Katastrophen, befasst sich jedoch nicht mit Schäden auf individueller Ebene. OpenAI sieht sich bereits mit Klagen von Familien konfrontiert, denen vorgeworfen wird, dass ihre KI-Modelle durch ungesunde Benutzerbeziehungen zum Selbstmord von Kindern beigetragen haben.
Die Rechenschaftslücke: Gegner argumentieren, dass es keinen Grund gibt, warum bestehende KI-Unternehmen mit einer geringeren Haftung konfrontiert werden sollten, insbesondere da ihre Modelle leistungsfähiger und unvorhersehbarer werden.

Das regulatorische Vakuum

Derzeit fehlt in den Vereinigten Staaten ein umfassendes Bundesgesetz zur Regelung der KI-Haftung. Während die Exekutive Rahmenbedingungen und Anordnungen erlassen hat, muss der Kongress noch endgültige Gesetze verabschieden. Dieses Rechtsvakuum hat Staaten wie Kalifornien und New York gezwungen, ihre eigenen Anforderungen an Sicherheit und Transparenz umzusetzen.

Während sich KI-Modelle immer weiter in Richtung größerer Autonomie weiterentwickeln, bleibt die Frage, wer verantwortlich ist, wenn eine Maschine eine Katastrophe verursacht, eines der dringendsten rechtlichen und ethischen Dilemmata der Moderne.


Schlussfolgerung: Die Unterstützung von SB 3444 durch OpenAI stellt einen Versuch dar, rechtlichen Schutz für Entwickler vor katastrophalen KI-Ausfällen zu schaffen, mit dem Ziel, die Sicherheit mit der Notwendigkeit einer nationalen Technologieführerschaft in Einklang zu bringen. Allerdings stößt der Gesetzentwurf auf erheblichen Gegenwind seitens der öffentlichen Meinung und eines Landesparlaments, das für seine strenge Technologieaufsicht bekannt ist.