Останні кілька місяців BBC досліджувала темний, прихований світ — світ, де з’являється найгірший, найжахливіший, найбільш тривожний, а в багатьох випадках, незаконний онлайн-контент.
Від обезголовлень до масових вбивств, від сексуальної експлуатації дітей до мови ненависті — всі ці випадки потрапляють до інбоксів глобальної армії модераторів контенту.
Ви не часто чуєте або бачите їх — це люди, чиєю роботою є огляд, а за необхідності видалення контенту, що або його повідомляють інші користувачі, або автоматично позначають технічні засоби.
Проблема онлайн-безпеки стає дедалі актуальнішою, оскільки технологічні компанії піддаються тиску швидше видаляти шкідливий матеріал.
Незважаючи на масу досліджень та інвестицій у технологічні рішення, для допомоги, наразі за все далі вирішують саме модератори.
Модератори зазвичай працюють у сторонніх компаніях, але вони працюють із контентом, опублікованим на великих соціальних мережах, таких як Instagram, TikTok і Facebook.
Вони розташовані по всьому світу. Люди, з якими я спілкувався під час створення серії «Модератори» для Radio 4 та BBC Sounds, в основному жили в Східній Африці, й усі залишили цю галузь.
Їхні історії були жахливими. Деякі з того, що ми записували, було занадто жорстоким для трансляції. Іноді ми з продюсером Томом Вулфенденом закінчували запис та просто сиділи мовчки.
«Якщо ви візьмете свій телефон і зайдете в TikTok, ви побачите багато активностей, танців, щасливих моментів», — говорить Мойєз, колишній модератор контенту з Найробі, який працював над контентом TikTok. «Але одночасно я модерував сотні жахливих і травмуючих відео.»
«Я взяв на себе цю відповідальність. Нехай моє психічне здоров’я постраждає, щоб інші користувачі могли продовжувати свої діяльності на платформі.»
В даний час існує кілька юридичних позовів, що свідчать про те, що ця робота знищила психічне здоров’я модераторів. Деякі з колишніх працівників Східної Африки об’єдналися, щоб створити профспілку.
«Насправді єдине, що стоїть між мною, коли я заходжу в соціальну мережу, і переглядом обезголовлення, — це хтось, хто сидить в офісі десь і переглядає цей контент за мене», — каже Марта Дарк, яка керує групою підтримки юридичних дій.
У 2020 році Meta, відома раніше як Facebook, погодилася виплатити погодження в розмірі $52 млн (£40 млн) модераторам, які розвинули проблеми з психічним здоров’ям через свою роботу.
Юридичну справу ініціювала колишня модераторка в США на ім’я Селена Скола. Вона описала модераторів як «зберігачів душ» через кількість кадрів, які вони бачать з остаточними моментами життя людей.
Колишні модератори, з якими я спілкувався, усі рано чи пізно вжили слово «травма», описуючи вплив роботи на них. Дехто мав проблеми зі сном і апетитом.
Один з них описав, як звук плачу дитини змусив колегу панікувати. Інший розповів, що йому важко спілкуватися зі своєю дружиною та дітьми через сексуальну експлуатацію дітей, яку він свідчив.
Я очікував, що вони скажуть, що ця робота настільки емоційно і психічно важка, що жодна людина не повинна займатися цим — я думав, що вони повністю підтримають повну автоматизацію цієї галузі з розвитком інструментів штучного інтелекту для охоплення цієї роботи.
Але вони не підтримали цього.
Що особливо вразило, так це величезна гордість, яку модератори мали за ролі, які вони відіграли у захисті світу від онлайн-шкоди.
Вони вважали себе важливою службою екстреної допомоги. Один з них сказав, що хотів би носити форму та значок, порівнюючи себе з парамедиком або пожежником.
«Жодна секунда не була витрачена даремно», — говорить хтось, кого ми назвали Девідом. Він попросив залишитися анонімним, але працював над матеріалом, що використовувався для навчання популярного AI-чат-бота ChatGPT, щоб його програмували не відтворювати жахливий матеріал.
«Я гордий з того, що люди навчали цю модель бути такою, якою вона є сьогодні.»
Але інструмент, який Девід допоміг навчити, може колись замінити його.
Дейв Уілнер, колишній керівник довіри та безпеки в OpenAI, компанії, що створила ChatGPT, каже, що його команда розробила простий інструмент модерації на основі технології чат-бота, який зміг ідентифікувати шкідливий контент з точністю близько 90%.
«Коли я прийшов до усвідомлення, що це спрацює, я щиро зупинився на мить», — говорить він. «[Інструменти ШІ] не втомлюються. Вони не відчувають шоку… вони невтомні.»
Проте не всі впевнені, що ШІ є розв’язанням проблем для проблемного сектора модерації.
«Думаю, це проблемно», — говорить доктор Пол Рейлі, старший викладач медіа та демократії в університеті Глазго. «Очевидно, що ШІ може бути досить грубим, бінарним способом модерації контенту.»
«Це може призвести до надмірного блоку, порушення свободи слова, і, звичайно, може пропустити нюанси, які люди-модератори могли б ідентифікувати. Людська модерація є невід’ємною частиною платформ», — додає він.
«Проблема полягає в тому, що їх недостатньо, і ця робота надзвичайно шкідлива для тих, хто її виконує.»
Ми також звернулися до згаданих у серії технологічних компаній.
Представник TikTok заявив, що компанія знає, що модерація контенту — це нелегке завдання, і прагне створити турботливе робоче середовище для працівників. Це включає надання клінічної підтримки і створення програм, що підтримують добробут модераторів.
Вони додають, що відео спочатку переглядаються автоматизованими технологіями, які, за їхніми даними, видаляють велику кількість шкідливого контенту.
Між тим, OpenAI, компанія, що стоїть за ChatGPT, говорить, що вона вдячна за важливу і іноді складну роботу, яку виконують людські працівники, щоб навчити ШІ виявляти такі фотографії та відео. Представник додає, що разом із партнерами OpenAI реалізує політики захисту добробуту цих команд.
А Meta, яка володіє Instagram і Facebook, говорить, що вимагає від усіх компаній, з якими співпрацює, забезпечити добродушну підтримку на місці з тренованими професіоналами. Вони також додали, що модератори можуть налаштувати свої інструменти перегляду, щоб розмити графічний контент.
Серія «Модератори» транслюється на BBC Radio 4 з 11 по 15 листопада, о 13:45 GMT, а також доступна на BBC Sounds.