OpenAI перешла от оборонительной позиции к активному участию в законотворчестве, сигнализируя о новом подходе к управлению растущими юридическими рисками, связанными с искусственным интеллектом. Теперь компания публично поддерживает законопроект штата Иллинойс SB 3444, целью которого является защита разработчиков «передовых» (frontier) моделей ИИ от юридической ответственности в случае катастрофического ущерба для общества.
Суть SB 3444: Защита разработчиков от «критического ущерба»
Предлагаемый законопроект создает юридическую «безопасную гавань» для разработчиков мощных моделей ИИ. Согласно документу, компании не будут нести ответственности за «критический ущерб» — под которым понимаются инциденты, приведшие к гибели или серьезным травмам 100 и более человек, либо к материальному ущербу на сумму более 1 миллиарда долларов, — при условии соблюдения двух критериев:
1. Действия компании не были умышленными или неосторожными.
2. Компания регулярно публикует отчеты о безопасности, защищенности и прозрачности.
Законопроект нацелен именно на «передовые модели» — те, обучение которых требует вычислительных затрат более 100 миллионов долларов. Это определение фактически охватывает крупнейших игроков индустрии, включая OpenAI, Google, Meta, Anthropic и xAI.
Сфера «критического ущерба» включает экстремальные сценарии, такие как использование ИИ злоумышленниками для разработки химического, биологического, радиологического или ядерного оружия, а также автономные действия модели ИИ, которые считались бы уголовным преступлением, если бы их совершил человек.
Стратегический сдвиг в сторону федеральной гармонизации
Этот шаг представляет собой значительное изменение в подходе OpenAI. Ранее компания в основном фокусировалась на противодействии регулированию, которое могло бы привлечь их к ответственности за вред, причиненный их технологиями. Поддерживая SB 3444, OpenAI пытается сама формировать правила игры, а не просто реагировать на них.
OpenAI утверждает, что такой подход преследует две основные цели:
– Минимизация рисков: регуляторные усилия концентрируются на самых продвинутых и потенциально опасных системах.
– Стандартизация: стремление предотвратить появление «лоскутного одеяла» из различных законов в каждом штате, что может создать юридические трения и замедлить инновации.
«Ориентиром для регулирования передовых моделей должно стать их безопасное развертывание, которое при этом сохранит лидерство США в области инноваций», — заявила Кейтлин Нидермейер из отдела глобальных связей OpenAI.
Эта позиция совпадает с общим трендом Кремниевой долины: стремлением к созданию единой федеральной базы, которая позволит американским компаниям конкурировать на мировом уровне, не ограничиваясь разрозненными требованиями на уровне штатов.
Препятствия: общественные настроения и юридические прецеденты
Несмотря на поддержку со стороны гигантов индустрии, законопроект в Иллинойсе может столкнуться с трудностями. У штата богатая история жесткого регулирования технологий, включая ранние законы о биометрических данных и услугах в области психического здоровья.
Критики и эксперты в области политики высказывают ряд серьезных опасений:
– Общественное противодействие: данные показывают, что большинство жителей Иллинойса выступают против предоставления компаниям ИИ освобождения от ответственности.
– Индивидуальный вред против массового: хотя SB 3444 фокусируется на массовых жертвах и катастрофах на миллиарды долларов, он не решает проблему ущерба на индивидуальном уровне. OpenAI уже сталкивается с исками от семей, утверждающих, что их модели ИИ способствовали самоубийствам детей из-за формирования нездоровых отношений с пользователями.
– Пробел в подотчетности: оппоненты утверждают, что нет причин, по которым существующие компании ИИ должны иметь сниженную ответственность, особенно по мере того, как их модели становятся всё более мощными и непредсказуемыми.
Регуляторный вакуум
На данный момент в США отсутствует всеобъемлющий федеральный закон, регулирующий ответственность в сфере ИИ. Хотя исполнительная власть издала ряд рамок и указов, Конгресс еще не принял окончательного законодательства. Этот правовой вакуум вынуждает такие штаты, как Калифорния и Нью-Йорк, вводить собственные требования к безопасности и прозрачности.
По мере того как модели ИИ эволюционируют в сторону большей автономности, вопрос о том, кто несет ответственность за катастрофу, вызванную машиной, остается одной из самых острых юридических и этических дилемм современности.
Заключение: Поддержка SB 3444 со стороны OpenAI — это попытка установить юридическую защиту разработчиков от катастрофических сбоев ИИ, стремясь сбалансировать безопасность с необходимостью сохранения технологического лидерства страны. Однако законопроект сталкивается с серьезным противодействием со стороны общественного мнения и законодательного собрания штата, известного своим строгим надзором за технологиями.
