Це така велика сума, що важко уявити. У всьому світі до 2029 року на дата-центри, які підтримують штучний інтелект (AI), буде витрачено близько $3 трлн (£2,2 трлн).
Цю оцінку представив інвестиційний банк Morgan Stanley, який додає, що приблизно половина з цієї суми піде на витрати на будівництво, а інша половина – на дорогі апаратні засоби, які підтримують революцію AI.
Для порівняння, це приблизно те, скільки становила вся французька економіка в 2024 році.
Тільки у Великій Британії, за оцінками, протягом наступних кількох років буде побудовано ще 100 дата-центрів, щоб задовольнити попит на обробку AI.
Деякі з них будуть збудовані для Microsoft, яка на початку цього місяця оголосила про інвестиції в розмірі $30 млрд (£22 млрд) у сектор AI у Великобританії.
Що ж таке особливого в AI дата-центрах, що відрізняє їх від традиційних будівель, в яких містяться ряди комп’ютерних серверів, що підтримують наші особисті фото, соціальні акаунти та робочі додатки?
Чи варто витрачати такі величезні кошти на цю галузь?
Дата-центри протягом багатьох років зростали у розмірах. Термін “гіпермасштаб” був введений технологічною промисловістю, щоб описати об’єкти, де потреба в електроенергії досягає десятків мегават, перш ніж з’явилися гігавати, що в тисячу разів більше за мегавати.
Проте AI значно вплинув на цю гру. Більшість моделей AI покладаються на дорогі комп’ютерні чіпи від Nvidia для обробки завдань.
Чіпи Nvidia поставляються в великих шафах, вартість кожної з яких складає близько $4 млн. І ці шафи розкривають суть того, чим AI дата-центри відрізняються від звичайних.
Великі мовні моделі (LLM), які навчають програмне забезпечення AI, повинні розбити мову на кожен можливий мікроскопічний елемент значення. Це можливо лише за допомогою мережі комп’ютерів, що працюють у єдиній системі і в надзвичайно близькій proximity.
Чому близькість така важлива? Кожен метр відстані між двома чіпами додає наносекунду, одну мільярдну частку секунди, до часу обробки.
Це може звучати як незначний час, але коли склад компресорів працює, ці мікроскопічні затримки накопичуються і знижують продуктивність, необхідну для AI.
AI оброблювальні шафи щільно розміщені один біля одного, щоб усунути цей елемент затримки і створити те, що технологічний сектор називає паралельною обробкою, працюючи як один величезний комп’ютер. Це все свідчить про щільність – магічне слово в колах AI будівництва.
Щільність усуває затримки в обробці, які звичайні дата-центри бачать від роботи процесорів, що сидять на кілька метрів окремо.
Однак ця щільність шаф споживає гігавати енергії, і навчання LLM викликає стрибки в споживанні електрики.
Ці стрибки еквівалентні тому, як тисячі домогосподарств одночасно вмикають чайники через кілька секунд.
Такий нерегулярний запит на місцеву електромережу потребує ретельного управління.
Деніел Бізо з консалтингової компанії з інженерії дата-центрів The Uptime Institute аналізує дата-центри за професією. “Звичайні дата-центри – це рівномірне гудіння на фоні в порівнянні зі споживанням, яке має навантаження AI на електромережу”, – зазначає він.
Так само, як ті синхронізовані чайники, раптові сплески AI представляють, за словами пана Бізо, “унікальну проблему”.
“Унікальне навантаження такого масштабу – це досі нечувано”, – говорить пан Бізо, “це таке екстремальне інженерне завдання, як програма Apollo.”
Оператори дата-центрів шукають різні способи обходити енергетичні проблеми.
Говорячи з BBC на початку цього місяця, генеральний директор Nvidia Дженсен Хуанг заявив, що в Великій Британії в короткостроковій перспективі він сподівається, що більше газових турбін можуть бути використані “поза мережі, щоб ми не обтяжували людей на мережі”.
Він зазначив, що сам AI розробить кращі газові турбіни, сонячні панелі, вітрові турбіни та ядерну енергію, щоб виробляти більш економічну та сталу енергію.
Microsoft інвестує мільярди доларів у енергетичні проекти, зокрема в угоду з Constellation Energy, яка знову почне виробництво ядерної енергії на острові Три милі.
Google, який належить Alphabet, також інвестує в ядерну енергію в рамках стратегії, щоб до 2030 року перейти на вуглецево-нейтральну енергію.
Тим часом Amazon Web Services (AWS), що є частиною роздрібного гіганта Amazon, заявляє, що вже є найбільшим корпоративним покупцем відновлювальної енергії у світі.
Індустрія дата-центрів добре усвідомлює, що законодавці стежать за негативними наслідками AI заводів з їх інтенсивним споживанням енергії, що може мати вплив на місцеву інфраструктуру та навколишнє середовище.
Одним із таких екологічних наслідків є значне споживання води для охолодження працюючих чіпів.
У штаті Вірджинія, де проживає зростаюча кількість дата-центрів, які забезпечують роботу таких техногігантів, як Amazon та Google, розглядається законопроект, що пов’язує затвердження нових об’єктів з показниками споживання води.
Тим часом запланований AI завод на півночі Лінкольншира у Великій Британії зустрів заперечення з боку компанії Anglian Water, яка відповідає за постачання води в районі запланованого об’єкта.
Anglian Water вказує на те, що не зобов’язана постачати воду для недомашнього використання і пропонує використання очищеної води з останнього етапу очистки стічних вод як охолоджуючий агент замість питної води.
З оглядом на практичні проблеми та величезні витрати, чи дійсно весь цей рух є великою бульбашкою?
Один зі спікерів на недавній конференції з дата-центрів виголосив термін “барагаватти”, щоб описати, як індустрія підкреслює масштаби запропонованих AI об’єктів.
Заль Лімбувала, спеціаліст з дата-центрів у технічних інвестиційних радниках DTCP, визнає, що існують великі питання щодо майбутнього інвестицій в дата-центри для AI.
“Поточна траєкторія — дуже важка для віри. Безперечно, йде багато хвастовства. Але інвестиції повинні приносити прибуток, інакше ринок виправиться сам.”
Беручи до уваги ці застереження, він все ж вважає, що AI заслуговує на особливе місце з точки зору інвестицій. “AI матиме більший вплив, ніж попередні технології, включаючи інтернет. Тому ймовірно, що нам знадобляться всі ці гігавати.”
Він зазначає, що, незважаючи на хвастовство, AI дата-центри “є нерухомістю технологічного світу”. Спекулятивні технологічні бульбашки, такі як
дотком бум 1990-х років, мали відсутність матеріальної бази. AI дата-центри є дуже реальними. Але бум витрат на їхнє створення не може тривати вічно.