Чотири провідні чат-боти штучного інтелекту (ШІ) недостатньо точно підсумовують новинні історії, згідно з дослідженням, проведеним BBC.
BBC передала OpenAI's ChatGPT, Microsoft's Copilot, Google's Gemini та Perplexity AI контент з веб-сайту BBC, після чого запитала їх про новини.
У звіті йдеться, що результуючі відповіді містили "значні неточності" та спотворення.
Генеральний директор BBC News та Current Affairs, Дебора Турнес, зазначила в блозі, що ШІ відкриває "безмежні можливості", але компанії, які розвивають ці інструменти, "грають з вогнем".
"Ми живемо у тривожні часи, і як довго ще чекати, поки спотворений заголовок ШІ не призведе до значної шкоди в реальному світі?", – запитала вона.
Технічні компанії, що володіють чат-ботами, були запрошені прокоментувати цю ситуацію.
Дослідження та результати
У дослідженні BBC попросила ChatGPT, Copilot, Gemini та Perplexity підсумувати 100 новинних історій та оцінила кожну відповідь.
Журналісти, які є експертами в тематичній області статті, оцінили якість відповідей від AI-асистентів.
Виявилося, що 51% усіх відповідей AI на запитання про новини були визнані такими, що мають значні проблеми.
Крім того, 19% відповідей AI, що посилалися на контент BBC, вводили фактичні помилки, такі як невірні фактичні дані, цифри і дати.
Заклик до співпраці
У своєму блозі пані Турнес зазначила, що BBC прагне "відкрити нову розмову з постачальниками технологій AI", щоб ми могли "співпрацювати у партнерстві для пошуку рішень".
Вона закликала технічні компанії "відступити" свої AI-новинні підсумки, як це зробила Apple після скарг від BBC щодо спотворення новин.
Приклади неточностей
Деякі приклади неточностей, виявлених BBC, включають:
В загальному, Microsoft's Copilot і Google's Gemini мали більше значних проблем, ніж OpenAI's ChatGPT і Perplexity, інвестором якого є Джефф Безос.
Зазвичай, BBC блокує свій контент від чат-ботів, але в рамках тестування в грудні 2024 року відкрила свій веб-сайт.
Звіт зазначає, що, крім фактичних неточностей, чат-боти "не справлялися з розмежуванням між думкою та фактом, редакціонували й часто не включали суттєвий контекст".
Програмний директор BBC з генеративного ШІ, Піт Арчер, зазначив, що видавці "повинні контролювати, чи та як використовується їхній контент, і компанії ШІ повинні показувати, як асистенти обробляють новини, разом із масштабом та обсягом помилок і неточностей, які вони продуктивно створюють".