Штучний інтелект у новинах: BBC виявила серйозні помилки в роботі чат-ботів

Чотири провідні чат-боти штучного інтелекту (ШІ) недостатньо точно підсумовують новинні історії, згідно з дослідженням, проведеним BBC.

BBC передала OpenAI's ChatGPT, Microsoft's Copilot, Google's Gemini та Perplexity AI контент з веб-сайту BBC, після чого запитала їх про новини.

У звіті йдеться, що результуючі відповіді містили "значні неточності" та спотворення.

Генеральний директор BBC News та Current Affairs, Дебора Турнес, зазначила в блозі, що ШІ відкриває "безмежні можливості", але компанії, які розвивають ці інструменти, "грають з вогнем".

"Ми живемо у тривожні часи, і як довго ще чекати, поки спотворений заголовок ШІ не призведе до значної шкоди в реальному світі?", – запитала вона.

Технічні компанії, що володіють чат-ботами, були запрошені прокоментувати цю ситуацію.

Дослідження та результати

У дослідженні BBC попросила ChatGPT, Copilot, Gemini та Perplexity підсумувати 100 новинних історій та оцінила кожну відповідь.

Журналісти, які є експертами в тематичній області статті, оцінили якість відповідей від AI-асистентів.

Виявилося, що 51% усіх відповідей AI на запитання про новини були визнані такими, що мають значні проблеми.

Крім того, 19% відповідей AI, що посилалися на контент BBC, вводили фактичні помилки, такі як невірні фактичні дані, цифри і дати.

Заклик до співпраці

У своєму блозі пані Турнес зазначила, що BBC прагне "відкрити нову розмову з постачальниками технологій AI", щоб ми могли "співпрацювати у партнерстві для пошуку рішень".

Вона закликала технічні компанії "відступити" свої AI-новинні підсумки, як це зробила Apple після скарг від BBC щодо спотворення новин.

Приклади неточностей

Деякі приклади неточностей, виявлених BBC, включають:

В загальному, Microsoft's Copilot і Google's Gemini мали більше значних проблем, ніж OpenAI's ChatGPT і Perplexity, інвестором якого є Джефф Безос.

Зазвичай, BBC блокує свій контент від чат-ботів, але в рамках тестування в грудні 2024 року відкрила свій веб-сайт.

Звіт зазначає, що, крім фактичних неточностей, чат-боти "не справлялися з розмежуванням між думкою та фактом, редакціонували й часто не включали суттєвий контекст".

Програмний директор BBC з генеративного ШІ, Піт Арчер, зазначив, що видавці "повинні контролювати, чи та як використовується їхній контент, і компанії ШІ повинні показувати, як асистенти обробляють новини, разом із масштабом та обсягом помилок і неточностей, які вони продуктивно створюють".

Вам також може сподобатися

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Більше у Бізнес