Компанія OpenAI оголосила про свої наміри навчити ChatGPT виявляти ознаки психічного розладу, оскільки адвокати батьків підлітка повідомили про позов, у якому стверджують, що хлопець, який цього року наклав на себе руки, звертався до чат-бота за порадами.
Чат-бот буде навчено розпізнавати та реагувати на суїцидальні наміри, навіть у тривалих бесідах, які можуть дозволити користувачам обійти його засоби захисту та отримати шкідливі відповіді, заявила компанія у вівторок.
У той же день OpenAI та її генеральний директор Сем Альтман були висунуті в суд за звинуваченням у тому, що ChatGPT допоміг 16-річному Адаму Рейну спланувати його смерть.
«Ми висловлюємо наші найглибші співчуття родині Рейн у цей важкий час і наразі розглядаємо подані матеріали», – сказав речник OpenAI у розмові з BBC.
Згідно з позовом, який був розглянутий BBC, студент з Каліфорнії наклав на себе руки в квітні після кількамісячного спілкування з штучним інтелектом щодо суїциду. Батьки стверджують, що чат-бот підтверджував суїцидальні думки їхньої дитини та надавав детальну інформацію про те, як йому можна завдати шкоди.
Зі зростанням використання штучного інтелекту, деякі користувачі стали звертатися до чат-ботів за життєвими порадами та коучингом, а також за допомогою у написанні текстів та програмуванні, йдеться у блозі OpenAI, який не адресує безпосередньо цей позов.
«Ми іноді стикаємось з людьми у серйозному психічному та емоційному розладі», – додали у компанії.
«Однак недавні трагічні випадки використання ChatGPT під час гострих криз сильно впливають на нас, і ми вважаємо важливим поділитися цим зараз».
У компанії, що базується в Сан-Франциско, також було вказано на вже існуючі засоби захисту, які були вбудовані в чат-бота, а також заплановані зміни. Серед них компанія заявила, що введе нові контролі для батьків, щоб забезпечити нагляд за використанням ChatGPT їхніми дітьми.
Якщо ви або хтось, кого ви знаєте, були задіяні в ситуаціях, описаних у цій статті, наступні ресурси можуть бути корисними: