З розвитком штучного інтелекту (ШІ) з’являються нові виклики, які можуть призвести до серйозних загроз. Щоб уникнути катастрофічних наслідків, важливо заздалегідь підготуватися та визначити зобов’язання з урахуванням певних ризиків. Ця стаття відображає думки провідних світових компаній та експертів щодо цієї теми.
Зобов’язання у сфері ШІ
Значний інтерес з боку лідерів галузі та урядів викликаний принципом «якщо-то», що передбачає, що у разі наявності в ШІ моделі здатності X, повинні бути передбачені механізми ризиків Y. Наприклад, якщо модель має здатність допомогти в розробці зброї масового знищення, необхідно гарантувати, що споживачі не можуть отримати такі інструкції.
Разом до наукового консенсусу
На сьогоднішній день три компанії – Google DeepMind, OpenAI та Anthropic – розробили документи, в яких описуються такі зобов’язання. До 2024 року ще шістнадцять компаній планують реалізувати подібні рамки. Спільно з урядами, промисловістю та цивільним суспільством планується вивчення та адаптація цих ідей, щоб зменшити вразливість систем.
Критичні здатності ШІ: тригерні можливості
Серед ключових моментів є так звані тригерні можливості, які здатні викликати значні катастрофічні ризики. Зокрема, це має бути описано та проаналізовано, щоб зрозуміти, які ризики є найбільш імовірними та яких запобіжників буде недостатньо.
Обгрунтування тригерних можливостей
Серед них, ризики, пов’язані з:
- розробкою хімічної та біологічної зброї;
- кібернетичними атаками;
- маніпуляцією думками та переконаннями;
- автономними системами, які можуть створювати значні ресурси без людського втручання.
Нові етапи у світі ШІ
Важливо, щоб компанії не чекали до виконання всіх досліджень, перш ніж запроваджувати політики. Швидке реагування без затримок є критично важливим для подолання пов’язаних з ризиками загроз, перш ніж вони стане серйозними. Продовження обговорення та обміну ідеями щодо тригерних можливостей і ризиків важливе для зменшення потенційних загроз у всьому світі.