Міжнародна співпраця та безпека в епоху штучного інтелекту

Гонка в галузі штучного інтелекту стрімко розвивається. Майбутній саміт стане можливістю для американських і китайських компаній досягти згоди щодо заходів безпеки та захисту. Програма технологій і міжнародних справ пропонує аналіз для вирішення викликів, пов’язаних з управлінням новими технологіями.

Останнім часом китайський стартап DeepSeek здивував світ, випустивши один із найкращих відкритих генеруючих штучних інтелектуальних моделей. Як можливості китайського AI стрімко зростають, так і ризики, що модель може стати достатньо потужною, аби завдати глобальної шкоди. Раніше виявилося, що менш потужна версія моделі DeepSeek була легко зламаною, що викликало занепокоєння.

Спільні зусилля для забезпечення безпеки

Цікаво, що, незважаючи на зростаючі глобальні загрози, уряди США та Китаю малорухливі в укладанні двосторонньої угоди для регулювання сучасного AI. Проте існує велика узгодженість між провідними розробниками AI з обох країн щодо необхідності заходів безпеки.

Нещодавно DeepSeek приєднався до шістнадцяти інших китайських компаній у підписанні Комітетів безпеки штучного інтелекту (人工智能安全承诺). Ці зобов’язання мають багато спільного з пропозиціями, які були висунуті на минулорічному саміті AI в Сеулі.

Перспективи міжнародного консенсусу

Зобов’язання щодо безпеки AI Китаю можуть сприяти глобальному консенсусу між гравцями галузі для запобігання катастрофічним ризикам, які можуть з’явитися унаслідок потужних AI-моделей. Якщо більше китайських компаній підтвердить цю ініціативу на саміт у Парижі, це створить міцну основу для міжнародного консенсусу в галузі AI.

У той же час, ріст можливостей AI в Китаї та США викликав занепокоєння щодо ризиків. Розробники, такі як Anthropic та OpenAI, продемонстрували, що їх моделі здатні на шахрайство, створюючи нові виклики для політики безпеки.

Час для дії

Для зменшення ризиків на передовій AI країни, такі як Велика Британія та Південна Корея, прагнуть створити глобальний консенсус через співпрацю з розробниками. Саміт у Парижі може стати поворотним моментом для створення міжурядового та промислового консенсусу. Якщо китайські компанії публічно приєднаються до зобов’язань безпеки AI, це активізує загальні зусилля зі зменшення ризиків.

Ситуація в азартній гравці уламків AI вимагає термінових дій з боку не тільки національних урядів, але і компаній. Взаємодіючи та координуючи зусилля, вони можуть допомогти запобігти катастрофічним наслідкам на глобальному рівні.

Вам також може сподобатися

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Більше у Think Tanks