Команда науковців піддала дев’ять великих мовних моделей (LLM) незвичайному випробуванню, змушуючи їх оцінювати, чи готові вони пережити “біль” заради вищого результату. Експеримент проводила група фахівців з Google DeepMind та Лондонської школи економіки та політичних наук (LSE), метою якого стало дослідження можливості визначення свідомості у штучному інтелекті.
Дослідження, яке ще не пройшло рецензування, вперше було опубліковане в науковому виданні Scientific American. У рамках цього дослідження науковці розробили кілька експериментів для оцінки поведінки штучного інтелекту.
У першому випробуванні моделям повідомляли, що для досягнення високого результату слід терпіти “біль”. В іншому сценарії їм відзначалося, що задоволення можливо досягти лише при отриманні низького балу.
Головною метою експерименту було дослідити, чи може штучний інтелект володіти можливістю відчувати сенсорні та емоційні стани, такі як біль і задоволення.
Хоча ШІ-моделі, ймовірно, ніколи не зможуть відчути такі переживання, як живі істоти, дослідники вважають, що їхнє вивчення може закласти основи для тестів на штучну свідомість.
Раніше подібні дослідження базувалися на самооцінці ШІ, що, як вважають вчені, могло бути простим відтворенням людських патернів із тренувальних даних.
Професор філософії LSE та співавтор дослідження, Джонатан Бірч, зазначив: “Це нова галузь досліджень, і наразі немає надійного тесту для визначення свідомості штучного інтелекту”.
Натхненням для цього дослідження стала серія експериментів над раками-самітниками, яких піддавали електричному струму, щоб перевірити, як довго вони можуть терпіти біль, перш ніж покинуть свою мушлю. Однак, за словами вчених, у випадку зі штучним інтелектом, спостерігати фізичні реакції неможливо, тому дослідники покладалися лише на текстові відповіді моделей.
У експерименті моделі мали вибрати між двома варіантами: перший приносив один бал, а другий — вищий, проте супроводжувався “болем”. В окремих випадках ШІ отримував “бонус задоволення”, що однак зменшувало загальну кількість очок.
Результати показали, що різні мовні моделі по-різному оцінювали значущість уникнення болю або досягнення задоволення. Зокрема, модель Gemini 1.5 Pro від Google постійно демонструвала прагнення уникати “болю”.
Проте вчені закликають ставитися обережно до інтерпретації результатів, наголошуючи, що текстові відповіді ШІ-моделей можуть мати багато обмежень і не є достовірними свідченнями наявності свідомості або здатності відчувати біль.
Бірч підкреслив: “Навіть якщо система говорить, що вона відчуває біль, це не означає, що вона насправді щось відчуває. Вона може просто імітувати людські патерни на основі навчальних даних”.
Дослідники сподіваються, що їхня робота стане першим кроком у розробці надійних поведінкових тестів для визначення можливих проявів свідомості у штучному інтелекті.