Коли я пишу ці рядки, багато впливових осіб з усього світу готуються вирушити до Парижа — панує відчуття, що багато з них затримують подих.
У понеділок, на фоні розкішного 125-річного Гран-палац, представники з 80 країн, включаючи світових лідерів, керівників технологічних компаній, академіків та інших експертів, зберуться на дводенний глобальний саміт, щоб обговорити поточний прогрес та майбутні цілі в сфері стрімко розвиваючихся технологій штучного інтелекту.
Це, можливо, є висловленою метою саміту із штучного інтелекту, але є щось інше, що активно впливає на цей захід: DeepSeek.
Один з фанатів кінних перегонів колись сказав мені, що напередодні великого забігу кожен є переможцем.
І з тим, як Китай різко зміщує конкуренцію в сфері ШІ завдяки DeepSeek, своєму суперактивному та супер-вірусному асистенту, відчувається, що позиція США в сегменті ШІ, незважаючи на їхнє величезне багатство та інфраструктуру, може бути не такою недосяжною.
Професор Джина Неф з Центру технологій і демократії Міндеру в Кембриджському університеті зазначає, що наразі існує “вакум глобального лідерства у сфері ШІ”.
Професорка Вендзі Холл з Університету Саутгемптона підтверджує: “DeepSeek змусив усіх усвідомити, що Китай є силою, з якою потрібно рахуватися”.
“Ми не повинні просто слідувати тому, що кажуть великі компанії з західного узбережжя. Нам потрібен глобальний діалог”, — підкреслює вона.
У цьому контексті, саміт відбудеться в ідеальний час.
Європа також вбачає можливість здобути нову корону в сфері штучного інтелекту. Один з чиновників президента Франції Еммануеля Макрона описав саміт як “сигнал тривоги” для Франції та Європи, додаючи, що блок не повинен дозволити, щоб революція в ШІ “пройшла повз нього”.
Інші країни також усвідомлюють можливий зміщення сили в сфері ШІ. Прем’єр-міністр Індії Нарендра Моді підтвердив свою присутність на цьому саміті — раніше він не відвідував подібні зустрічі.
США також надсилають потужні сигнали, включаючи віце-президента JD Vance, CEO OpenAI Сема Альтмана та голови Google Сундара Пічаї.
Елон Маск, згаданий на списку офіційних гостей, навряд чи висловить свою думку про події, навіть якщо особисто не буде присутнім.
Британський прем’єр-міністр Кір Стармер також, як повідомляють, утримується від участі.
Вже відбулося два попередніх саміти: перший в Великобританії, а другий у Південній Кореї. Багато чого сталося з тих пір, як світ зібрався вперше перед історичним Блетчлі Хаус у листопаді 2023 року, пообіцявши намагатися максимізувати переваги ШІ, зменшуючи ризики. За цей час половина світового населення проголосувала.
На Блетчлі Парк, китайський віце-міністр науки та технологій Ву Чжаохуй був присутній. Але виникали чутки, що його тримали на відстані, через питання національної безпеки.
У Парижі, навпаки, я очікую, що Китай буде в статусі почесного гостя. Країна, за повідомленнями, відправляє одного зі своїх найвищих лідерів, Дін Сюесяна, близького союзника президента Сі Цзіньпіна. Також велике обговорення навколо того, чи приєднається творець DeepSeek Лянів Венфенг.
Я запитав ChatGPT перерахувати помітні досягнення ШІ з моменту саміту в Південній Кореї у травні 2024 року. DeepSeek не потрапив до списку.
Звісно, що існує набагато більше в ШІ, ніж генеративний ШІ, як DeepSeek та ChatGPT — інструменти, які створюють контент, як текст, зображення і відео. Це можуть бути найбільш доступні для споживачів інструменти. Але є також інші ШІ-інструменти, які виявляють симптоми хвороб, моделюють рішення щодо зміни клімату, розробляють нові формули для лікарських засобів — все це також стане предметом обговорення в Парижі.
Більше того, наратив Давида проти Голіафа, навколо якого крутиться історія DeepSeek, заслуговує на подальше вивчення. Керівник AI-фірми Anthropic, Даріо Амодей, написав захоплюючий блог про те, чи дійсно DeepSeek був створений за зниженими витратами в порівнянні з його американськими конкурентами.
Ми знаємо, що DeepSeek був створений на основі їхніх технологій: використовуючи безліч чіпів Nvidia (можливо, старіших, через санкції США) та деякі відкриті архітектури ШІ, розроблені Meta. Крім того, OpenAI поскаржилася, що конкуренти використовують їхню роботу для просування власних цілей (контакти в творчих індустріях були розважені іронією цього, оскільки продукти OpenAI охоче виробляють контент “у стилі” окремих людських творців).
Але, незважаючи на це, DeepSeek вдалося потрясти сектор ШІ таким чином, якого навіть сама ШІ не могла б передбачити. І це значно знизило вартість деяких найбільших гравців у цьому процесі. Швидше за все, це стане величезною темою обговорення у всіх паризьких конференц-залах.
Ще одна тема, яка проходить через саміт з ШІ, варта уваги.
Перший саміт мав слово “безпека” в заголовку. Дехто вважав, що захід занадто наполягав на цій наративі і налякав людей темною розмовою про екзистенційні загрози.
Але це питання не зникло з порядку денного зовсім.
Як тема, безпека ШІ є досить широкою темою. Вона може стосуватися різноманітних ризиків: генерація та розповсюдження дезінформації, демонстрація упередженості та дискримінації проти окремих осіб чи рас, постійний розвиток штучних інтелектом озброєнь різними країнами, потенціал створення ШІ нездоланних комп’ютерних вірусів.
Професор Джеффрі Хінтон, часто описуваний як один із “класиків” ШІ, говорить про це як про “короткострокові ризики”. Вони можуть бути темою для обговорення в Парижі, але, як він стверджував на радіопередачі BBC Radio 4 минулого тижня, навряд чи викличуть міцну міжнародну співпрацю в тривалій перспективі.
Великим сценарієм, який, на його думку, дійсно зможе об’єднати всіх, є перспектива, що ШІ стане більш розумним, ніж люди, і захоче захопити контроль.
“Ніхто не хоче, щоб ШІ замінив людей”, — каже він. “Китайці набагато більше хотіли б, щоб Комуністична партія Китаю керувала всім, ніж ШІ”.
Професор Хінтон порівняв цю перспективу з часами холодної війни, коли США та Росія “ледве змогли” співпрацювати для запобігання глобальної ядерної війни.
“Немає жодної надії зупинити [розвиток ШІ]”, — сказав він. “Те, що ми маємо зробити, — це намагатися розвивати його безпечно”.
Професор Макс Тегмарк, засновник Інституту майбутнього життя, також поділяє гірке застереження. “Або ми розвиваємо чудовий ШІ, який допомагає людям, або неконтрольований ШІ, який замінює людей”, — говорить він.
“На жаль, ми ближчі до створення ШІ, ніж до того, щоб розібратися, як його контролювати”.
Професор Тегмарк сподівається, що саміт спонукатиме до розробки обов’язкових стандартів безпеки, “як це відбувається в кожній іншій критично важливій галузі”.