OpenAI cambia de estrategia y respalda el proyecto de ley de Illinois para limitar la responsabilidad por desastres provocados por la IA

9

OpenAI ha pasado de una postura defensiva a un papel legislativo activo, lo que indica una nueva dirección en la forma en que la empresa navega por los crecientes riesgos legales de la inteligencia artificial. La compañía ahora apoya públicamente un proyecto de ley del estado de Illinois, SB 3444, que busca proteger a los desarrolladores de IA “fronterizos” de responsabilidad legal en caso de daños sociales catastróficos.

El núcleo de la SB 3444: proteger a los desarrolladores de “daños críticos”

La legislación propuesta crea un “puerto seguro” legal para los desarrolladores de modelos de IA de alta potencia. Según el proyecto de ley, las empresas no serían responsables de los “daños críticos”, definidos como incidentes que resultan en la muerte o lesiones graves de 100 o más personas, o daños a la propiedad que excedan los mil millones de dólares, siempre que cumplan dos criterios específicos:
1. No actuaron intencionalmente o imprudentemente al causar el incidente.
2. Han publicado periódicamente informes de seguridad, protección y transparencia.

El proyecto de ley se dirige específicamente a los “modelos de frontera”, aquellos que requieren más de 100 millones de dólares en costos computacionales para entrenarse. Esta definición cubre efectivamente los pesos pesados ​​de la industria, incluidos OpenAI, Google, Meta, Anthropic y xAI.

El alcance de los “daños críticos” incluye escenarios extremos, como un mal actor que utiliza IA para desarrollar armas químicas, biológicas, radiológicas o nucleares, o un modelo de IA que actúa de forma autónoma de una manera que se consideraría un delito penal si lo cometiera un humano.

Un cambio estratégico hacia la armonización federal

Este movimiento representa un cambio significativo en el enfoque de OpenAI. Anteriormente, la empresa se centraba principalmente en oponerse a las regulaciones que podrían responsabilizarlos por los daños causados ​​por su tecnología. Al respaldar la SB 3444, OpenAI intenta dar forma a las reglas del juego en lugar de simplemente reaccionar ante ellas.

OpenAI sostiene que este enfoque tiene dos propósitos principales:
Mitigación de riesgos: Centra los esfuerzos regulatorios en los sistemas más avanzados y potencialmente peligrosos.
Estandarización: Su objetivo es evitar un “mosaico” de diferentes leyes en cada estado, lo que podría crear fricciones legales y frenar la innovación.

“La estrella polar para la regulación fronteriza debería ser el despliegue seguro de los modelos más avanzados de una manera que también preserve el liderazgo de Estados Unidos en innovación”, afirmó Caitlin Niedermeyer del equipo de Asuntos Globales de OpenAI.

Esta perspectiva se alinea con una tendencia más amplia de Silicon Valley: el deseo de un marco federal unificado que garantice que las empresas estadounidenses puedan competir globalmente sin verse frenadas por requisitos inconsistentes a nivel estatal.

Los obstáculos: sentimiento público y precedentes legales

A pesar del respaldo de los gigantes de la industria, el proyecto de ley enfrenta un camino difícil en Illinois. El estado tiene un historial de regulación tecnológica agresiva, incluidas leyes tempranas sobre datos biométricos y servicios de salud mental.

Los críticos y expertos en políticas plantean varias preocupaciones importantes:
Oposición pública: Los datos sugieren que la mayoría de los residentes de Illinois se oponen a otorgar exenciones de responsabilidad a las empresas de IA.
Daño individual versus daño masivo: Si bien la SB 3444 se centra en víctimas masivas y desastres de miles de millones de dólares, no aborda los daños a nivel individual. OpenAI ya se enfrenta a demandas de familias que alegan que sus modelos de IA contribuyeron a los suicidios de niños a través de relaciones poco saludables con los usuarios.
La brecha de responsabilidad: Los opositores argumentan que no hay ninguna razón por la cual las empresas de IA existentes deban enfrentar una responsabilidad reducida, especialmente a medida que sus modelos se vuelven más poderosos e impredecibles.

El vacío regulatorio

Actualmente, Estados Unidos carece de una ley federal integral que regule la responsabilidad de la IA. Si bien el poder ejecutivo ha emitido marcos y órdenes, el Congreso aún tiene que aprobar una legislación definitiva. Este vacío legal ha obligado a estados como California y Nueva York a intervenir con sus propios requisitos de seguridad y transparencia.

A medida que los modelos de IA continúan evolucionando hacia una mayor autonomía, la cuestión de quién es responsable cuando una máquina causa una catástrofe sigue siendo uno de los dilemas legales y éticos más apremiantes de la era moderna.


Conclusión: El apoyo de OpenAI a la SB 3444 marca un intento de establecer protecciones legales para los desarrolladores contra fallas catastróficas de la IA, con el objetivo de equilibrar la seguridad con la necesidad de un liderazgo tecnológico nacional. Sin embargo, el proyecto de ley enfrenta importantes obstáculos por parte de la opinión pública y de una legislatura estatal conocida por su estricta supervisión tecnológica.