Каліфорнія здійснює широкий захід безпеки AI, що передбачає стандартизовану практику розкриття та прозорості для розробників великих моделей AI

Каліфорнія здійснює широкий захід безпеки AI, що передбачає стандартизовану практику розкриття та прозорості для розробників великих моделей AI

Ключові винос

  • Останні закони Каліфорнії AI передбачають посилення зобов’язань щодо прозорості, розголошення та звітування для розробників великих моделей AI “кордону”. Такі розробники повинні публічно розголошувати практику управління AI та огородження в “рамках AI”, публікувати “звіти про прозорість” щодо ключових особливостей нових моделей та повідомляти про певні “критичні випадки безпеки” до державних установ.
  • Вимірювання кодифікує елементи недавнього звіту про робочу групу Каліфорнії про безпеку AI, який рекомендує посилити зобов'язання прозорості та розкриття інформації щодо регулювання розробників моделей AI.
  • Законодавча влада стурбована тим, що великі моделі мають “можливості, що становлять катастрофічні ризики як від шкідливих цілей, так і з несправностей, включаючи штучні інтелекту, зламані, біологічні атаки та втрата контролю”.
  • Обов’язки з прозорості та розкриття інформації проводиться за допомогою положень нового закону, який захищає винищувачів, які розкривають регуляторам або роботодавцям небезпек для охорони здоров'я чи безпеки, що виникають внаслідок катастрофічного ризику або порушення закону щодо великої поведінки моделі ШІ.
  • Meation встановлює публічний хмарний обчислювальний кластер, “Calcompute” в Каліфорнійському університеті, який забезпечить інфраструктуру ШІ для стартапів та дослідників.

У понеділок, 29 вересня, губернатор Каліфорнії Newsom підписав новий закон про ШІ в Каліфорнії, що передбачає значне нове розголошення, звітність та зобов’язання з прозорості для розробників великих моделей ШІ. Захід, відомий як прозорість у Законі про фронт -штучний інтелект (SB 53), вимагає певних розробників великих моделей “прикордонних” AI: (i) проактивно розголошувати практику управління та зменшення ризику в умовах “рамки AI”; (ii) прийняти практику для забезпечення більшої прозорості у визначенні та оцінці катастрофічних порогів ризику, що виникають внаслідок потенційного використання великих моделей кордонів AI; та (iii) повідомляти про певні інциденти безпеки ШІ. Законопроект набуде ефективного 1 січня 2026 року.

Цей захід приймає ключові елементи звіту про робочу групу Каліфорнії (звіт Каліфорнії про політику кордонів AI), виданий на початку цього року про розробку охорони безпеки AI, і відображає аналогічний захід, затверджений нью -йоркським законодавчим органом, який зараз триває перед губернатором Нью -Йорка Хочулом.

Автор SB 53, сенатор штату Каліфорнія Скотт Вінер, є автором більш повної регуляторної пропозиції AI, запропонованої в попередньому законодавчому органі, який в кінцевому рахунку був вето на вето губернатора Newsom після законодавчої сесії 2024 року. Цей новий захід відображає спробу сенатора Вайнера відступити від прямих регуляторних мандатів щодо операцій, а натомість покладається на підвищення прозорості та звітних обов'язків для досягнення подібних цілей.

Розкриття практики управління AI у “рамках AI”

Цей захід спрямовує “великих прикордонних розробників”-підстави, які (1) розробляють моделі AI, які навчаються за допомогою обчислювальної потужності, що перевищують 10^26 цілих або (2), мають валові щорічні доходи, що перевищують 500 мільйонів доларів-для розкриття їх веб-сайту A “Fromework AIS-фреймеда”. Таке розкриття повинно описати, серед іншого, як компанія:

  • Включає національні та міжнародні стандарти управління та найкращі практики галузі консенсусу в рамки управління кордоном AI;
  • Визначає пороги, щоб визначити та оцінити, чи здатна модель кордону AI спричинити “катастрофічні ризики”;
  • Використовує стратегії пом'якшення наслідків для вирішення потенціалу катастрофічних ризиків;
  • Реалізує практику кібербезпеки, щоб забезпечити невидані ваги моделі від несанкціонованої модифікації або передачі внутрішніми або зовнішніми сторонами; і
  • Відповідає на критичні випадки безпеки.

Звіти про Frontier AI Framework, передбачені цим заходом, повинні бути оновлені щонайменше раз на рік, або коли розробник моделі Frontier здійснює “модифікацію матеріалу” до рамки.

Зобов'язання про прозорість та розкриття

Усі розробники прикордонних моделей-це не лише ті, хто має щорічний дохід понад 500 мільйонів доларів-також потрібно розкрити на своєму веб-сайті певну інформацію про модель Frontier у так званому “звіті про прозорість”. Публічні звіти повинні розголошувати дати випуску моделі, підтримувані мови, способи випуску, призначене використання моделі та загалом застосовні обмеження або умови використання моделі. Зокрема, цей мандат відрізняється від подібних зобов’язань згідно із Законом ЄС АІ, який вимагає розкриття інформації безпосередньо регуляторам.

Звіти про прозорість також повинні включати оцінки “катастрофічних ризиків з прикордонної моделі, проведеної відповідно до фреймворків AI -прикордонника великого прикордонного розробника”. Такі звіти повинні розголошувати результати оцінок, залучення сторонніх оцінювачів (якщо такі є) та будь-які кроки, зроблені для виконання кроків кордону компанії AI. Розробники Frontier AI, які вже розкривають цю інформацію в системних або модельних картках, вважатимуться відповідно до цих зобов'язань прозорості.

SB 53 також вимагає великий Прикордонні розробники розкривають державному агентству “будь -яка оцінка катастрофічного ризику внаслідок внутрішнього використання його прикордонних моделей” кожні три місяці або інші розумні часові рамки. Захід спеціально забороняє будь -яку істотно помилкову або оманливу заяву про катастрофічний ризик або виконання компанії або дотримання його фронтової рамки AI.

Повідомлення про “критичні випадки безпеки”

Урядове агентство створить новий механізм звітності для розробників кордонів або представників громадськості, щоб повідомити про “критичні інциденти безпеки”, визначений як: (1) несанкціонований доступ до модифікацій або екзфільтрації моделей моделі прикордонної моделі, що призводить до смерті або тілесної травми; (2) шкода внаслідок матеріалізації катастрофічного ризику; або (3) втрата контролю прикордонної моделі, що спричиняє смерть або тілесні ушкодження. Великі прикордонні розробники зобов’язані повідомити про такі випадки протягом 15 днів після відкриття, якщо не вважається, що інцидент не створює неминучий ризик смерті чи травми, що викликає більш негайні зобов'язання звітності перед відповідними органами. Звіти про критичні інциденти щодо безпеки АІ повинні включати характер інциденту, дату виникнення та чи був пов'язаний інцидент із використанням прикордонної моделі.

SB 53 уповноважує Генерального прокурора або Агентства, уповноваженому здійснити процес звітності (Управління екстрених служб), поділитися будь -яким поданим критичним звітом про інцидент з безпеки з законодавчим органом, губернатором, федеральним урядом або “відповідними” державними установами.

Ці звіти звільняються від Закону про публічні записи Каліфорнії, а державні установи спрямовані на те, щоб вони пам’ятали про ризики розкриття комерційної таємниці, громадської безпеки, кібербезпеки та інших ризиків, що виникають внаслідок розкриття критичних випадків безпеки АІ.

Новий захід уповноважує Управління екстрених служб приймати правила, що призначили один або кілька федеральних законів, правил або “настанови”, які значно схожі на або більш жорсткі, ніж стандарти, що знаходяться в рамках SB 53, виступають як безпечна гавань, якщо більші постачальники моделей AI можуть продемонструвати дотримання такого федерального закону, правила чи керівництва.

Захист винищування

SB 53 also provides certain protections for whistleblowers, including prohibiting frontier developers from making, adopting, enforcing, or entering into a rule, regulation, policy, or contract that prevents a covered employee—defined as an employee responsible for assessing, managing, or addressing risks of critical safety incidents—from disclosing information related to those incidents, or retaliates against such employee for disclosing such information to the Генеральний прокурор, федеральний орган, особа, яка має повноваження щодо покритого працівника чи іншого покритого працівника, який має повноваження розслідувати, виявити або виправляти повідомлення про повідомлення.

Цей захід також вимагає, щоб великі розробники прикордонників встановлювали внутрішні процеси, за допомогою яких покритий працівник може анонімно розголошувати інформацію розробнику, якщо покритий працівник добросовісно вказує на те, що діяльність великого прикордонного розробника представляє специфічну та істотну небезпеку для охорони здоров'я чи безпеки, що виникає внаслідок катастрофічного ризику, або для того, щоб великий розробник кордону порушив статут.

Порушення елементів прозорості та розголошення нового закону піддаються цивільним покаранням “у сумі, що залежить від тяжкості порушення”, але не перевищує 1 мільйон доларів за порушення. Цей захід також встановлює процедури для забезпечення захисту та уповноваженого збору адвокатських зборів за будь -якого позивача, який приносить успішні дії за порушення цього заходу.

Консорціум загальнодоступних хмарних обчислень

Цей новий захід також уповноважує розробку “публічного хмарного обчислювального кластера”, який призначений для розширення доступу до обчислювальних ресурсів, необхідних для розробки та підготовки великих моделей та сприяння дослідженню та інновацій, які “приносять користь громадськості”. Ця ініціатива, позначена Calcompute, буде експлуатуватися Каліфорнійським університетом і має на меті призвести до розробки приймальної хмарної платформи та людського досвіду для підтримки, навчання та полегшення використання платформи.