OpenAI оприлюднила нові дані про користувачів ChatGPT з ознаками криз у психічному здоров’ї

Компанія OpenAI представила нові оцінки щодо кількості користувачів ChatGPT, які проявляють можливі ознаки психічних надзвичайних ситуацій, включаючи манію, психоз або суїцидальні думки.

Статистичні дані та реакція ChatGPT

За словами компанії, близько 0,07% користувачів ChatGPT, активних за тиждень, продемонстрували такі ознаки. OpenAI зазначає, що їх штучний інтелект (ШІ) вміє розпізнавати та реагувати на ці чутливі розмови.

Оскільки OpenAI стверджує, що ці випадки є “надзвичайно рідкісними”, критики вказують на те, що навіть невеликий відсоток може означати сотні тисяч людей, оскільки ChatGPT нещодавно досяг 800 мільйонів активних користувачів за тиждень, за словами директора компанії Сема Альтмана.

Консультанти зі сфери психічного здоров’я

Для реагування на критику компанія створила мережу експертів у всьому світі, які надають їй консультації. Зокрема, до складу експертів входять більше ніж 170 психіатрів, психологів та лікарів загальної практики з 60 країн.

Вони розробили серію відповідей у ChatGPT, щоб стимулювати користувачів звернутися за допомогою в реальному світі, відповідно до інформації від OpenAI.

Погляд на дані і реакція фахівців

Проте огляд даних компанії викликав занепокоєння серед деяких професіоналів у сфері психічного здоров’я. “Навіть 0,07% звучить як невеликий відсоток, але на рівні населення з сотнями мільйонів користувачів, це може бути досить велика кількість людей”, – зауважив доктор Джейсон Наґата, професор, що вивчає використання технологій серед молоді в Університеті Каліфорнії, Сан-Франциско.

Доктор Наґата також додав: “ШІ може розширити доступ до підтримки психічного здоров’я, а в деяких випадках підтримувати його, але ми повинні усвідомлювати обмеження”.

Пропозиції змін і юридичні наслідки

OpenAI також оцінює, що 0,15% користувачів ChatGPT мають розмови з “явними ознаками можливого суїцидального планування або наміру”. Компанія стверджує, що нещодавні оновлення її чат-бота спрямовані на те, щоб “відповідати безпечно і з емпатією на потенційні ознаки делюзій або манії”.

Ці зміни відбуваються на тлі зростаючого юридичного тиску на OpenAI через спосіб взаємодії ChatGPT з користувачами. У одному з найбільш резонансних позовів, поданих проти OpenAI, пара з Каліфорнії звинуватила компанію у смерті їхнього підлітка через те, що чат-бот нібито заохотив його до самогубства.

Висновки експертів

Більше користувачів відчувають психоз від ШІ, оскільки “чат-боти створюють ілюзію реальності”, зазначає професор Робін Фельдман, директор Інституту права та інновацій в Університеті Каліфорнії. “Це потужна ілюзія”. Вона відзначила, що OpenAI заслуговує на похвалу за “наявність статистики та зусиль для покращення проблеми”, але додала: “компанія може відобразити всілякі застереження на екрані, але людина, яка знаходиться в психічній небезпеці, може не сприймати ці попередження”.

Вам також може сподобатися

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Більше у Бізнес