Державні законодавці в США вважають, що мають можливість сформувати майбутнє регулювання штучного інтелекту (ШІ) для своїх громадян, а також для інших країн. Програма технологій та міжнародних справ розробляє ідеї для вирішення викликів управління новими технологіями та великих ризиків, пов’язаних із ними. Наші експерти визначають практичні найкращі методи та стимули для лідерів галузі та урядів у таких сферах, як штучний інтелект, кіберзагрози, безпека хмарних технологій, протидія впливу, зменшення ризику біотехнологій та забезпечення глобальної цифрової інклюзії.
Фокус на регулювання штучного інтелекту
Драматичне скасування пропозиції про федеральну паузу в регулюванні штучного інтелекту, яке було відхилено минулого місяця голосуванням 99 до 1 у Сенаті, знову привернуло увагу до зусиль штатів у регулюванні ШІ. У всій країні державні законодавці намагаються встановити рамки, які, як вони сподіваються, захистять їх громадян від ризиків, пов’язаних зі ШІ, і можливо, у разі відсутності дій з боку Конгресу, стануть де-факто національними стандартами.
Пропозиції нових законопроєктів
Найзначнішими з цих законопроєктів є три останні ініціативи, які зосереджуються на моделях, що просувають межі можливостей ШІ, і унікальних ризиках, які ці моделі можуть нести. Ці законопроєкти об’єднують спільний набір політик, які зміцнюють прозорість, хоча й відрізняються у деяких проблесках. Цей акцент на прозорості є частково відповіддю на суперечку навколо каліфорнійського законопроєкту ШІ, відомого як SB-1047, який був ветований губернатором Каліфорнії Гевіном Н’юсом минулого року. Усі три законопроєкти відрізняються від деяких найсуперечливіших положень SB-1047, таких як відповідальність для розробників ШІ.
Стан справ у регулюванні ШІ в Каліфорнії, Нью-Йорку та Мічигані
У Каліфорнії демократ Скотт Вінер, автор SB-1047, цього тижня запропонував набір політик, які посилюють вимоги до прозорості для компаній, що займаються передовим ШІ, і зміцнюють захист для інформаторів у сфері ШІ. В Нью-Йорку законодавчий орган минулого місяця ухвалив Закон про безпеку та освіту відповідального ШІ (RAISE Act), який заборонить випуск моделей, що несуть певні ризики, запровадить вимоги до прозорості для розробників моделей і вимагатиме від компаній, що займаються ШІ, публічного звітування про інциденти безпеки. У Мічигані республіканка Сара Лайтнер нещодавно представила Закон про безпеку та прозорість штучного інтелекту, який створить аналогічні вимоги до прозорості та захисту інформаторів, а також підпорядкує розробників ШІ третім сторонам для аудиту.
Майбутнє регулювання штучного інтелекту
Взаємодія між цими законопроєктами — і будь-якими новими пропозиціями, які можуть з’явитися — визначатиме подальшу дискусію щодо ШІ не тільки в штатах, але й у Вашингтоні. Якщо штати приймуть надто різні підходи, це може створити «ремінцеву» структуру дотримання, якої побоювалися прихильники мораторію на ШІ. Але якщо вони зможуть дійти спільного набору принципів, це може закласти основу для більш загальних узгоджених стандартів. Це робить важливим для спостерігачів розуміти, що кожен з законопроєктів передбачає, а що — ні, а також уважно стежити за розвитком зусиль штатів.
Дебати про регулювання ШІ по всім штатам США стають все більш актуальними, і важливо, щоб громадськість, законодавці та інші зацікавлені сторони продовжували залучати свої голоси у цю важливу дискусію щодо майбутнього технологій, що впливають на наше життя.