Комітменти у формі “якщо-тоді” стають новим підходом до підготовки до ризиків, пов’язаних з штучним інтелектом (ШІ), без необґрунтованого гальмування розвитку нових технологій. Чим більше уваги та інтересу буде до цих комітментів, тим швидше розвиватиметься зріла стратегія регулювання.
Небезпеки штучного інтелекту
Штучний інтелект може нести різноманітні катастрофічні ризики для міжнародної безпеки в кількох сферах, включаючи можливість розповсюдження та прискорення кіберзлочинності, а також можливість розробки хімічної або біологічної зброї масового знищення. Сьогодні навіть найпотужніші моделі ШІ не здатні завдати таких ризиків, але найближчі роки можуть призвести до швидких та непередбачуваних змін у можливостях ШІ.
Концепція якщо-тоді комітментів
Ці комітменти мають форму: якщо модель ШІ має здатність X, то заходи з пом’якшення ризиків Y повинні бути запроваджені. Якщо це буде необхідно, ми затримаємо розгортання і/або розробку ШІ для забезпечення того, щоб ці заходи були готові вчасно. Наприклад: якщо модель ШІ може навчити новачка, як створити зброю масового знищення, ми повинні забезпечити, щоб не було можливостей для користувачів викликати таку поведінку з боку моделі.
Приклади і прогрес
Три лідери галузі — Google DeepMind, OpenAI та Anthropic — опублікували детальніше визначення таких комітментів. Шістнадцять компаній оголосили про намір створити такі механізми до початку AI Action Summit 2025 у Франції. Вони активно обговорюють ідеї, пов’язані з якщо-тоді комітментами, в рамках міжнародних діалогів з питань безпеки ШІ та на саміті з питань безпеки ШІ у Великобританії.
Висновок
Ця стаття має на меті полегшити розуміння потенціалу та обмежень таких комітментів для зменшення ризиків. Чим більше буде уваги до комітментів, тим більше зусиль різні інституції направлять на їх вдосконалення, що дозволить пришвидшити прогрес у розвитку зрілої системи для зниження ризиків, пов’язаних з ШІ.