OpenAI verandert van strategie en steunt de wet van Illinois om de aansprakelijkheid voor door AI aangedreven rampen te beperken

3

OpenAI is van een defensieve houding overgegaan naar een actieve wetgevende rol, wat een nieuwe richting aangeeft in de manier waarop het bedrijf omgaat met de groeiende juridische risico’s van kunstmatige intelligentie. Het bedrijf steunt nu publiekelijk een wetsvoorstel van de staat Illinois, SB 3444, dat tot doel heeft AI-ontwikkelaars uit de ‘grensregio’ te beschermen tegen wettelijke aansprakelijkheid in het geval van catastrofale maatschappelijke schade.

De kern van SB 3444: ontwikkelaars beschermen tegen “kritieke schade”

De voorgestelde wetgeving creëert een juridische ‘veilige haven’ voor ontwikkelaars van krachtige AI-modellen. Volgens het wetsvoorstel zouden bedrijven niet aansprakelijk worden gesteld voor ‘kritieke schade’ – gedefinieerd als incidenten die resulteren in de dood of ernstig letsel van 100 of meer mensen, of materiële schade van meer dan $ 1 miljard – op voorwaarde dat ze aan twee specifieke criteria voldoen:
1. Ze hebben niet opzettelijk of roekeloos gehandeld bij het veroorzaken van het incident.
2. Ze hebben regelmatig veiligheids-, beveiligings- en transparantierapporten gepubliceerd.

Het wetsvoorstel richt zich specifiek op ‘grensmodellen’ – modellen die meer dan 100 miljoen dollar aan rekenkosten vereisen om te trainen. Deze definitie dekt effectief de zwaargewichten van de sector, waaronder OpenAI, Google, Meta, Anthropic en xAI.

De reikwijdte van ‘kritieke schade’ omvat extreme scenario’s, zoals een slechte actor die AI gebruikt om chemische, biologische, radiologische of nucleaire wapens te ontwikkelen, of een AI-model dat autonoom handelt op een manier die als een strafbaar feit zou worden beschouwd als het door een mens zou worden gepleegd.

Een strategische verschuiving richting federale harmonisatie

Deze stap vertegenwoordigt een aanzienlijke verandering in de aanpak van OpenAI. Voorheen concentreerde het bedrijf zich vooral op tegengestelde regelgeving die hen verantwoordelijk zou kunnen houden voor de schade die door hun technologie werd veroorzaakt. Door SB 3444 te steunen, probeert OpenAI de regels van het spel vorm te geven in plaats van er alleen maar op te reageren.

OpenAI stelt dat deze aanpak twee hoofddoelen dient:
Risicobeperking: Het richt de regelgevende inspanningen op de meest geavanceerde, potentieel gevaarlijke systemen.
Standaardisatie: Het is bedoeld om een ​​‘lappendeken’ van verschillende wetten in elke staat te voorkomen, wat juridische wrijving zou kunnen veroorzaken en innovatie zou kunnen vertragen.

“De Noordster voor grensregulering zou de veilige inzet van de meest geavanceerde modellen moeten zijn op een manier die ook het Amerikaanse leiderschap op het gebied van innovatie behoudt”, aldus Caitlin Niedermeyer van het Global Affairs-team van OpenAI.

Dit perspectief sluit aan bij een bredere trend in Silicon Valley: het verlangen naar een verenigd federaal raamwerk dat ervoor zorgt dat Amerikaanse bedrijven mondiaal kunnen concurreren zonder te worden afgeremd door inconsistente eisen op staatsniveau.

De hindernissen: het publieke sentiment en juridische precedenten

Ondanks de steun van industriegiganten staat het wetsvoorstel voor een moeilijke weg in Illinois. De staat heeft een geschiedenis van agressieve technologieregulering, waaronder vroege wetten met betrekking tot biometrische gegevens en geestelijke gezondheidszorg.

Critici en beleidsexperts brengen een aantal belangrijke zorgen naar voren:
Publieke oppositie: Uit gegevens blijkt dat de meerderheid van de inwoners van Illinois tegen het verlenen van aansprakelijkheidsvrijstellingen aan AI-bedrijven is.
Individuele versus massale schade: Hoewel SB 3444 zich richt op massale slachtoffers en miljardenrampen, wordt de schade niet op individueel niveau behandeld. OpenAI wordt al geconfronteerd met rechtszaken van gezinnen die beweren dat hun AI-modellen hebben bijgedragen aan de zelfmoorden van kinderen door ongezonde gebruikersrelaties.
De Accountability Gap: Tegenstanders beweren dat er geen reden is waarom bestaande AI-bedrijven met verminderde aansprakelijkheid te maken zouden krijgen, vooral omdat hun modellen krachtiger en onvoorspelbaarder worden.

Het regelgevingsvacuüm

Momenteel ontbreekt het in de Verenigde Staten aan een alomvattende federale wet die de aansprakelijkheid op het gebied van AI regelt. Hoewel de uitvoerende macht kaders en bevelen heeft uitgevaardigd, moet het Congres nog definitieve wetgeving aannemen. Dit juridische vacuüm heeft staten als Californië en New York gedwongen in te grijpen met hun eigen eisen op het gebied van veiligheid en transparantie.

Terwijl AI-modellen blijven evolueren naar grotere autonomie, blijft de vraag wie verantwoordelijk is wanneer een machine een catastrofe veroorzaakt een van de meest urgente juridische en ethische dilemma’s van de moderne tijd.


Conclusie: De steun van OpenAI voor SB 3444 markeert een poging om juridische bescherming te bieden aan ontwikkelaars tegen catastrofale AI-fouten, met als doel veiligheid in evenwicht te brengen met de behoefte aan nationaal technologisch leiderschap. Het wetsvoorstel krijgt echter te maken met aanzienlijke tegenwind van de publieke opinie en een staatswetgever die bekend staat om zijn strikte technische toezicht.