OpenAI cambia strategia, sostenendo la legge dell’Illinois per limitare la responsabilità per i disastri causati dall’intelligenza artificiale

4

OpenAI è passata da una posizione difensiva a un ruolo legislativo attivo, segnalando una nuova direzione nel modo in cui l’azienda affronta i crescenti rischi legali dell’intelligenza artificiale. La società sta ora sostenendo pubblicamente un disegno di legge dello stato dell’Illinois, SB 3444, che cerca di proteggere gli sviluppatori di intelligenza artificiale “di frontiera” dalla responsabilità legale in caso di danni sociali catastrofici.

Il nucleo di SB 3444: proteggere gli sviluppatori dai “danni critici”

La legislazione proposta crea un “porto sicuro” legale per gli sviluppatori di modelli di intelligenza artificiale ad alta potenza. Secondo il disegno di legge, le aziende non sarebbero ritenute responsabili per “danni critici” – definiti come incidenti che comportano la morte o il ferimento grave di 100 o più persone, o danni alla proprietà superiori a 1 miliardo di dollari – a condizione che soddisfino due criteri specifici:
1. Non hanno agito intenzionalmente o imprudentemente nel causare l’incidente.
2. Hanno pubblicato regolarmente rapporti su sicurezza, protezione e trasparenza.

Il disegno di legge si rivolge specificamente ai “modelli di frontiera”, quelli che richiedono più di 100 milioni di dollari in costi computazionali per la formazione. Questa definizione copre efficacemente i pesi massimi del settore, tra cui OpenAI, Google, Meta, Anthropic e xAI.

L’ambito dei “danni critici” include scenari estremi, come un cattivo attore che utilizza l’intelligenza artificiale per sviluppare armi chimiche, biologiche, radiologiche o nucleari, o un modello di intelligenza artificiale che agisce in modo autonomo in un modo che sarebbe considerato un reato se commesso da un essere umano.

Uno spostamento strategico verso l’armonizzazione federale

Questa mossa rappresenta un cambiamento significativo nell’approccio di OpenAI. In precedenza, l’azienda si concentrava principalmente sull’opposizione alle normative che avrebbero potuto ritenerla responsabile dei danni causati dalla sua tecnologia. Sostenendo SB 3444, OpenAI sta tentando di modellare le regole del gioco piuttosto che limitarsi a reagire ad esse.

OpenAI sostiene che questo approccio ha due scopi principali:
Mitigazione del rischio: concentra gli sforzi normativi sui sistemi più avanzati e potenzialmente pericolosi.
Standardizzazione: mira a prevenire un “patchwork” di leggi diverse in ogni stato, che potrebbe creare attriti giuridici e rallentare l’innovazione.

“La stella polare per la regolamentazione delle frontiere dovrebbe essere l’implementazione sicura dei modelli più avanzati in modo da preservare anche la leadership degli Stati Uniti nell’innovazione”, ha affermato Caitlin Niedermeyer del team Global Affairs di OpenAI.

Questa prospettiva è in linea con una tendenza più ampia della Silicon Valley: il desiderio di un quadro federale unificato che garantisca alle aziende americane di poter competere a livello globale senza essere rallentate da requisiti incoerenti a livello statale.

Gli ostacoli: sentimento pubblico e precedenti legali

Nonostante il sostegno dei giganti del settore, il disegno di legge si trova ad affrontare un percorso difficile in Illinois. Lo stato ha una storia di regolamentazione tecnologica aggressiva, comprese le prime leggi sui dati biometrici e sui servizi di salute mentale.

I critici e gli esperti politici sollevano diverse preoccupazioni significative:
Opposizione pubblica: i dati suggeriscono che la maggioranza dei residenti dell’Illinois si oppone alla concessione di esenzioni di responsabilità alle società di intelligenza artificiale.
Danni individuali e di massa: sebbene SB 3444 si concentri sulle vittime di massa e sui disastri da miliardi di dollari, non affronta i danni a livello individuale. OpenAI sta già affrontando azioni legali da parte di famiglie che sostengono che i loro modelli di intelligenza artificiale abbiano contribuito al suicidio di bambini attraverso relazioni malsane con gli utenti.
The Accountability Gap: Gli oppositori sostengono che non vi è alcun motivo per cui le società di intelligenza artificiale esistenti debbano affrontare una responsabilità ridotta, soprattutto perché i loro modelli diventano più potenti e imprevedibili.

Il vuoto normativo

Attualmente, gli Stati Uniti non dispongono di una legge federale completa che disciplina la responsabilità dell’IA. Mentre il ramo esecutivo ha emesso quadri e ordinanze, il Congresso deve ancora approvare la legislazione definitiva. Questo vuoto giuridico ha costretto stati come la California e New York a intervenire con le proprie esigenze di sicurezza e trasparenza.

Mentre i modelli di intelligenza artificiale continuano ad evolversi verso una maggiore autonomia, la questione di chi sia responsabile quando una macchina provoca una catastrofe rimane uno dei dilemmi legali ed etici più urgenti dell’era moderna.


Conclusione: il supporto di OpenAI per SB 3444 segna un tentativo di stabilire protezioni legali per gli sviluppatori contro guasti catastrofici dell’IA, con l’obiettivo di bilanciare la sicurezza con la necessità di leadership tecnologica nazionale. Tuttavia, il disegno di legge deve affrontare notevoli ostacoli da parte dell’opinione pubblica e di un legislatore statale noto per una rigorosa supervisione tecnologica.