«Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта», или «SB 1047», — это закон штата Калифорния от 2024 года, направленный на «снижение риска катастрофического вреда от искусственного интеллекта для смягчения последствий моделей, которые настолько заявили, что они еще не известны".
== Фон ==
Бум искусственного интеллекта|быстрый рост возможностей систем искусственного интеллекта в 2020-х годах, включая выпуск ChatGPT в ноябре 2022 года, побудил некоторых исследователей и представителей общественности выразить обеспокоенность по поводу экзистенциальных рисков, связанных с общим искусственным интеллектом|экзистенциальные риски подробнее мощные системы искусственного интеллекта.
В мае 2023 года сотни руководителей технологических компаний и исследователей искусственного интеллекта подписали
Гэвин Ньюсом | Губернатор Калифорнии Ньюсом и Джо Байден | Президент Байден издал указы по искусственному интеллекту в 2023 году.
== История ==
Первоначально закон был разработан Дэном Хендриксом, сооснователем Центра безопасности ИИ, который ранее утверждал, что эволюционное давление на ИИ может привести к «пути, по которому они будут вытеснены как доминирующие виды на Земле».
Скотт Винер | Сенатор штата Винер впервые предложил закон об искусственном интеллекте для Калифорнии в законопроекте о намерениях под названием SB 294, Закон о безопасности искусственного интеллекта, в сентябре 2023 года.
21 мая SB 1047 был принят Сенатом 32-1.
28 августа законопроект был принят Палатой представителей 48 голосами против 16. Из-за внесенных изменений законопроект впоследствии был повторно проголосован Сенатом, который принял его со счетом 30–9.
29 сентября губернатор Гэвин Ньюсом наложил вето на закон. Маловероятно, что Законодательное собрание преодолеет вето губернатора большинством в две трети голосов в обеих палатах.
== Провизия ==
Перед обучением моделей разработчики покрываемых моделей и их производных обязаны предоставить сертификат для снижения «разумного» риска «критического повреждения» охватываемой модели и ее производных, включая последующие модификации, которые могут быть проверены. Меры предосторожности для снижения риска включают возможность выключения модели , которую по-разному называют «выключателем»,
SB 1047 также создаст кластер общедоступных облачных вычислений под названием CalCompute, связанный с Калифорнийским университетом, для поддержки стартапов, исследователей и общественных групп, не обладающих большими вычислительными ресурсами.
=== Охваченные модели ===
SB 1047 охватывает модели искусственного интеллекта, которые обучаются 1026 операциям с целыми числами или плавающей запятой и стоят более 100 миллионов долларов США.
=== Критический урон ===
Критический ущерб определяется по четырем категориям:
* Создание или использование химического оружия|химических, биологических агентов|биологического, радиологического оружия|радиологического или ядерного оружия
* Кибератаки на критически важную инфраструктуру привели к массовым жертвам или ущербу на сумму не менее 500 миллионов долларов
* Автономные преступления, повлекшие массовые жертвы или ущерб на сумму не менее 500 миллионов долларов
* Прочие повреждения сопоставимой степени тяжести
=== Соответствие и контроль ===
SB 1047 потребует от застройщиков, начиная с 1 января 2026 года, ежегодно нанимать независимого стороннего аудитора для проведения независимого аудита соблюдения требований закона.Операционное агентство правительства Калифорнии проведет проверку результаты проверок безопасности и инцидентов, а также издают руководящие принципы, стандарты и передовой опыт. Законом создается Совет по пограничным моделям для надзора за применением Закона Государственным оперативным агентством. В его состав входят 9 членов.
== Прием ==
=== Дебаты ===
Сторонники законопроекта описывают его положения как простые и узконаправленные. Скотт Вайнер назвал его «легким, базовым законом о безопасности».
Наказание за нарушение присяги было предметом споров и в конечном итоге было отменено поправкой. Объем требования «выключателя отключения» также был сокращен после того, как разработчики открытого исходного кода выразили обеспокоенность. Также возник спор по поводу использования термина «разумная уверенность», который после внесения поправки был заменен термином «разумная осторожность». Критики утверждали, что стандарт «разумной осторожности» накладывает неоправданное бремя, требуя от разработчиков гарантировать, что модели не могут быть использованы для причинения катастрофического вреда, в то время как сторонники утверждали, что стандарт «разумной осторожности» не подразумевает безопасность и является устоявшимся правовым стандартом. согласно действующему законодательству это уже применимо к разработчикам ИИ.
=== Поддержка и оппозиция ===
В число сторонников закона входит лауреат премии Тьюринга Йошуа Бенджио.
Эндрю Нг, Фей-Фей Ли,
=== Промышленность ===
Закон поддерживается отраслевыми торговыми ассоциациями, такими как Калифорнийская торговая палата, Палата прогресса,
После изменений генеральный директор Anthropic Дарио Амодей написал, что «новый SB 1047 значительно улучшен до такой степени, что мы считаем, что его преимущества, вероятно, перевешивают его затраты. Однако мы не уверены в этом, и еще существуют некоторые аспекты закона». это кажется нам тревожным или двусмысленным.".
9 сентября 2024 г. не менее 113 нынешних и бывших сотрудников компаний, занимающихся искусственным интеллектом, таких как OpenAI, Google DeepMind, Anthropic, Meta и xAI, подписали письмо губернатору Ньюсому в поддержку SB 1047.
=== Разработчики с открытым исходным кодом ===
Критики выразили обеспокоенность по поводу ответственности, которую закон наложит на программное обеспечение с открытым исходным кодом, если оно будет использовать или улучшать существующие свободно доступные модели. Ян ЛеКун, директор по искусственному интеллекту Meta Platforms|Meta, предположил, что закон уничтожит модели искусственного интеллекта с открытым исходным кодом. В настоящее время (по состоянию на июль 2024 г.) в сообществе открытого исходного кода есть опасения, что такие компании, как Meta Platforms|Meta, могут решить больше не предоставлять модели (например, Llama (Language Model)|Llama) в свободном доступе из-за угрозы юридической ответственности.
=== Опросы общественного мнения ===
Институт политики искусственного интеллекта, аналитический центр, занимающийся вопросами регулирования искусственного интеллекта, Опрос YouGov, проведенный по заказу Проекта экономической безопасности, показал, что 78% зарегистрированных избирателей в Соединенных Штатах поддержали SB 1047, а 80% считали, что губернатор Ньюсом должен подписать законопроект.
Опрос, проведенный Дэвидом Биндером по заказу Центра безопасности ИИ, группы, занимающейся снижением социальных рисков и спонсора закона, показал, что 77% калифорнийцев поддерживают правило, требующее от компаний использовать модели AI-Test для выявления рисков безопасности, и 86% считают важным приоритетом для Калифорнии разработку правил безопасности ИИ.
=== SB 1047 Губернаторское вето ===
Губернатор Гэвин Ньюсом наложил вето на SB 1047 29 сентября 2024 года, сославшись на обеспокоенность по поводу нормативной базы закона, которая нацелена только на крупные модели искусственного интеллекта, основанные на их вычислительной мощности, но не учитывает, развертываются ли эти модели в средах высокого риска. =":10">
Губернатор Ньюсом также обязался сотрудничать с технологическими экспертами, федеральными партнерами и академическими учреждениями, включая центры и институты Стэнфордского университета | Институт человеко-ориентированного искусственного интеллекта (HAI) Стэнфордского университета, возглавляемый доктором Ньюсомом. Фей-Фей Ли работать вместе. Он объявил о планах сотрудничать с этими организациями для продвижения ответственной разработки искусственного интеллекта с целью защиты населения и одновременного продвижения инноваций.
== См. также ==
* Общий искусственный интеллект
*Регулирование ИИ в США
*Регулирование искусственного интеллекта
== Примечания ==
== Ссылки ==
== Внешние ссылки ==
* [https://digitaldemocracy.calmatters.org ... 0240sb1047 Правоохранительные органы] CalMatters
* [https://safesecureai.org/ Поддерживающий веб-сайт] Economic Security California Action, Центр действий по безопасности ИИ, Фонд действий и Encode Justice
* [https://stopsb1047.com/ Отклонение веб-сайта] Андреессен Горовиц
Подробнее: https://de.wikipedia.org/wiki/Safe_and_ ... Models_Act
Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта ⇐ Васина Википедия
-
Автор темыwiki_de
- Всего сообщений: 36436
- Зарегистрирован: 13.01.2023
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение