OpenAI change de stratégie et soutient le projet de loi de l’Illinois visant à limiter la responsabilité en cas de catastrophes provoquées par l’IA

6

OpenAI est passée d’une position défensive à un rôle législatif actif, signalant une nouvelle direction dans la manière dont l’entreprise gère les risques juridiques croissants de l’intelligence artificielle. L’entreprise soutient désormais publiquement un projet de loi de l’État de l’Illinois, SB 3444, qui vise à protéger les développeurs d’IA « frontières » de toute responsabilité légale en cas de dommages sociétaux catastrophiques.

Le cœur du SB 3444 : protéger les développeurs contre les « préjudices critiques »

La législation proposée crée une « sphère de sécurité » juridique pour les développeurs de modèles d’IA de grande puissance. En vertu du projet de loi, les entreprises ne seraient pas tenues responsables des « dommages critiques » – définis comme des incidents entraînant la mort ou des blessures graves de 100 personnes ou plus, ou des dommages matériels dépassant 1 milliard de dollars – à condition qu’elles répondent à deux critères spécifiques :
1. Ils n’ont pas agi intentionnellement ou de manière imprudente en provoquant l’incident.
2. Ils ont publié régulièrement des rapports sur la sûreté, la sécurité et la transparence.

Le projet de loi cible spécifiquement les « modèles frontières », ceux qui nécessitent plus de 100 millions de dollars en coûts de calcul pour être formés. Cette définition couvre effectivement les poids lourds du secteur, notamment OpenAI, Google, Meta, Anthropic et xAI.

La portée des « dommages critiques » inclut des scénarios extrêmes, tels qu’un mauvais acteur utilisant l’IA pour développer des armes chimiques, biologiques, radiologiques ou nucléaires, ou un modèle d’IA agissant de manière autonome d’une manière qui serait considérée comme une infraction pénale s’elle était commise par un humain.

Un virage stratégique vers une harmonisation fédérale

Cette décision représente un changement significatif dans l’approche d’OpenAI. Auparavant, l’entreprise s’est largement concentrée sur l’opposition aux réglementations qui pourraient la tenir responsable des dommages causés par sa technologie. En soutenant le SB 3444, OpenAI tente de façonner les règles du jeu plutôt que de simplement y réagir.

OpenAI soutient que cette approche répond à deux objectifs principaux :
Atténuation des risques : Il concentre les efforts de réglementation sur les systèmes les plus avancés et potentiellement dangereux.
Standardisation : Elle vise à éviter un « patchwork » de lois différentes dans chaque État, ce qui pourrait créer des frictions juridiques et ralentir l’innovation.

« L’étoile polaire de la réglementation aux frontières devrait être le déploiement sûr des modèles les plus avancés d’une manière qui préserve également le leadership américain en matière d’innovation », a déclaré Caitlin Niedermeyer de l’équipe des affaires mondiales d’OpenAI.

Cette perspective s’aligne sur une tendance plus large de la Silicon Valley : le désir d’un cadre fédéral unifié qui garantit que les entreprises américaines peuvent être compétitives à l’échelle mondiale sans être ralenties par des exigences incohérentes au niveau des États.

Les obstacles : sentiment du public et précédents juridiques

Malgré le soutien des géants de l’industrie, le projet de loi se heurte à des difficultés dans l’Illinois. L’État a un historique de réglementation agressive en matière de technologie, y compris les premières lois concernant les données biométriques et les services de santé mentale.

Les critiques et les experts politiques soulèvent plusieurs préoccupations importantes :
Opposition du public : Les données suggèrent que la majorité des résidents de l’Illinois s’opposent à l’octroi d’exonérations de responsabilité aux sociétés d’IA.
Dommages individuels ou préjudices massifs : Même si le SB 3444 se concentre sur les pertes massives et les catastrophes valant des milliards de dollars, il n’aborde pas les préjudices au niveau individuel. OpenAI fait déjà face à des poursuites judiciaires de la part de familles alléguant que leurs modèles d’IA ont contribué au suicide d’enfants en raison de relations malsaines avec les utilisateurs.
L’écart en matière de responsabilité : Les opposants soutiennent qu’il n’y a aucune raison pour que les sociétés d’IA existantes soient confrontées à une responsabilité réduite, d’autant plus que leurs modèles deviennent plus puissants et imprévisibles.

Le vide réglementaire

Actuellement, les États-Unis ne disposent pas d’une loi fédérale complète régissant la responsabilité de l’IA. Bien que le pouvoir exécutif ait publié des cadres et des ordonnances, le Congrès n’a pas encore adopté de législation définitive. Ce vide juridique a contraint des États comme la Californie et New York à adopter leurs propres exigences en matière de sécurité et de transparence.

Alors que les modèles d’IA continuent d’évoluer vers une plus grande autonomie, la question de savoir qui est responsable lorsqu’une machine provoque une catastrophe reste l’un des dilemmes juridiques et éthiques les plus urgents de l’ère moderne.


Conclusion : La prise en charge par OpenAI du SB 3444 marque une tentative d’établir des protections juridiques pour les développeurs contre les pannes catastrophiques de l’IA, dans le but d’équilibrer la sécurité avec la nécessité d’un leadership technologique national. Cependant, le projet de loi se heurte à d’importants obstacles de la part de l’opinion publique et d’une législature de l’État connue pour sa stricte surveillance technologique.