Джерело: Гала Скляревська, для Детектора Медіа

Експерти вважають, що інфодемія — глобальна криза, яка потребує змін правил гри на міжнародному рівні.

У сьогоднішній цифровій екосистемі право шукати, отримувати та розповсюджувати інформацію обмежується великими онлайн-платформами, які, з одного боку, покладаються на штучний інтелект (далі ШІ) для модерування, щоб боротися з дезінформацією, мовою ненависті, поширенням екстремістського чи дискримінаційного контенту. З іншого боку, платформи використовують той самий ШІ для підвищення залучення користувачів, і алгоритми ШІ часто посилюють поширення суперечливого, клікбейтного та неякісного контенту. Просування такого типу контенту продиктовано самою бізнес-моделлю платформ.

Ця двоїстість, а також фактична непрозорість і непідзвітність платформ у використанні ШІ вже призвела, наприклад, до етнічного конфлікту в М’янмі або втручання до виборчого процесу в багатьох країнах. Але під час пандемії масштаби інфодемії, які її супроводжували, показали, що проблема є настільки глобальною, що зусиллями окремих держав, самих платформ і виключно технічних інструментів її не вирішити.

Експерти круглого столу ОБСЄ  «Штучний інтелект та дезінформація як виклик багатосторонній політиці» вважають, що потрібно створити єдині правила регулювання роботи платформ на міжнародному рівні. Водночас такі норми повинні створити баланс між правами людини, насамперед свободою думки та її вираження, і неприпустимістю поширення контенту, який шкодить різним групам людей та підриває основи демократичних інститутів. MediaSapiens публікує витяги з дискусії експертів, присвяченої проблемам використання ШІ онлайн-платформами.

ШІ – не магічна пігулка

Основа демократії та її розвитку — можливість шукати і розповсюджувати інформацію, мати доступ до вивірених даних для формування своєї думки та вільної дискусії щодо проблем суспільства. Але сьогодні, зазначає представниця ОБСЄ з питань свободи засобів масової інформації Тереза ​​Рібейро, величезна кількість систем і механізмів впливає на те, хто та яку інформацію бачить. І ці алгоритми штучного інтелекту не орієнтовані на достовірність чи суспільне благо. Навпаки, вони спрямовані на максимізацію взаємодії з рекламними оголошеннями задля отримання прибутку. Тому важливо зрозуміти, як бізнес-моделі впливають на доступ до інформації користувачів. Низка досліджень показує, що такі механізми призводять до радикалізації різних груп та поляризації суспільства, а також посилюють поширення фейкового контенту.

Крім того, є ще одна важлива проблема: якщо новини регулюються алгоритмами з метою отримання прибутку так само, як і будь-який інший контент, то це ставить під загрозу стандарти журналістки: отримуючи вигоду від клікбейтних матеріалів, алгоритми пошукових систем і соціальних мереж залишають у тіні якісну інформацію.

Пандемія разом із інфодемією призвела до необхідності вживати безпрецедентних кроків для боротьби з дезінформацією, зокрема використовувати автоматизовані інструменти. «Ми всі згодні з тим, що з дезінформацією необхідно боротися, і що це складне завдання, яке вимагає різноманітних заходів, зокрема й використання алгоритмів. Але ШІ не враховує нюанси людської мови, що призводить до хибнопозитивних або хибнонегативних результатів, тобто алгоритми цензурують законне мовлення або, навпаки, не виявляють шкідливого контенту. Тож ШІ – не магічна пігулка», – каже Рібейро.

Один із найважливіших аспектів використання ШІ для боротьби з дезінформацією, на думку представниці ОБСЄ зі свободи слова, — підзвітність і прозорість онлайн-платформ. « Я вбачаю ключову роль держав у тому, щоб забезпечити правові процесуальні механізми для захисту прав людини в онлайн-середовищі,  — каже вона. — Наразі держави покладаються на посередників у вирішенні проблем онлайн-дезінформації, а вони, у свою чергу, діють в умовах слабкої підзвітності та використовують механізми автоматизації, які не відповідають державним зобов’язанням щодо захисту свободи слова. Саме тому потрібні нормативи, які підвищать прозорість бізнес-практик платформ. Нам потрібно боротися, навіть якщо це означає зміну законів про онлайн рекламу». При ухваленні таких норм, вважає експертка, ШІ може не нести загрози, а навпаки посилювати безпеку цифрових екосистем.

Модерація соцмереж та право на свободу думки

«Свобода думки – це абсолютне право, що означає, що будь-яке втручання в це право не може бути обмежене жодними причинами, –  каже юристка з прав людини Сьюзі Алегре. — Також, згідно з міжнародними конвенціями, право мати думку передбачає право її формувати та змінювати». Важливо, додає експертка, що право на формування думки включає право робити це вільно, без цілеспрямованого втручання з боку, і включає право на захист від маніпуляцій цією думкою. Тобто захист від пропаганди, маніпуляцій, від «промивання мозку» — і цей аспект є вкрай важливим у боротьбі з дезінформацією в цифровій реальності, де алгоритми можуть обмежувати доступ до однієї інформації або поширювати іншу. Таким чином платформи мають техніки або методи, які дозволяють суб’єктам впливати на нашу думку.

Алегре навела приклад, який доводить  вплив соцмереж на формування думки користувачів: у 2019 році група дослідників провела опитування на двох конференціях прихильників теорії про пласку Землю у США. Усі учасники заходу, за винятком одного опитаного, стали послідовниками теорії завдяки роликам, які вони дивилися на ютубі. Але, як з’ясували дослідники, спочатку вони не шукали відео саме на цю тему, і були прихильниками зовсім інших, не пов’язаних між собою теорій змови — наприклад, шукали інформацію про те, що американські астронавти не висаджувалися на Місяць або що Кеннеді вбили через змову мафії та ЦРУ. Проте механізми ютуба наполегливо рекомендували їм контент, заснований на їхніх початкових запитах, насамперед,  відео про пласку Землю. Так вони опинились на конференції. «Можна оцінити, якою силою володіють ці платформи не тільки для формування думок, але і для зміни цих думок на підставі рекомендованих алгоритмів», – говорить Алегре

Глобальна цифрова стратегія чи Дикий захід?

Кайл Метьюс, виконавчий директор Монреальського інституту дослідження геноциду та прав людини вважає, що під час пандемії стало особливо очевидно: платформи докладають максимум зусиль для протидії дезінформації, але не можуть впоратися з нею і програють у цій боротьбі. Це призводить до підриву довіри до демократії.

«ШІ використовується як для навмисної маніпуляції та поширення дезінформації, так і для її виявлення, тому це двогостра зброя. Причому його використовують і приватні організації, і держави, — каже Метьюс. — Ми розуміємо, що демократичні суспільства не найкращим чином відреагували на проблему пандемії, і тому вони втрачають свою роль взірців для наслідування для держав, що розвиваються. Це спричинило широке поширення дезінформації іншими державами, які використовують її для радикалізації певних груп, впливу на довіру до ЗМІ, поляризації суспільства. Під впливом цієї державної дезінформації люди почали ще більше втрачати віру у демократичні інституції».

Один із яскравих прикладів використання ШІ для дезінформації про коронавірус, каже Метьюс, — це  дослідження  Каліфорнійського університету в Сан-Дієго (UCSD), яке доводить: понад 300 тисяч фейсбук-акаунтів, які були ботами, поширювали фейки про коронавірусну пандемію. та інші неправдиві повідомлення. Платформа з часом заблокувала ці облікові записи, але користувачі вже отримали доступ до цих фейків.

Спроби платформ модерувати контент показали дві ключові проблеми: по-перше, основні зусилля спрямовані на англомовне середовище, залишаючи за бортом величезні спільноти, які послуговуються іншими мовами. По-друге, через неоднозначність ухвалених рішень дедалі більше людей, представників наукових спільнот, громадянського суспільства вимагають більшої прозорості від платформ, які займаються модерацією контенту. Все це, вважає Метьюс, демонструє необхідність ухвалювати рішення на рівні держав або таких організацій, як ОБСЄ. «Нам потрібне створення нових державно-приватних партнерств. Але не всі держави мають навички та технічні ресурси для ефективного реагування на ці виклики. Крім того, неможливо боротися з дезінформацією як на Дикому Заході, де кожен сам за себе. Тому важливо, що генеральний секретар ООН закликає до створення глобальної цифрової стратегії»,  – вважає Метьюс.

Проблема не лише у соцмережах

Коли говорять про вплив онлайн-платформ, зазвичай мають на увазі роботу алгоритмів соцмереж, говорить Хлоя Коллівер, очільниця цифрової політики та стратегічного діалогу ISD. Але дослідження ISD показують, що інші великі платформи також можуть проводити формування думки людей, радикалізують певні групи і просувають різні теорії змови. Наприклад, Amazon, який набув величезного впливу під час пандемії за рахунок онлайн-продажів: його механізми рекомендацій користувачам, які купують або шукають літературу, влаштовані таким чином, що показують потенційному покупцеві все більш радикальний контент або книги про теорії змови. Механізми пошуку гугла теж влаштовані специфічним чином: дослідники вводили в пошуковик словосполучення «американські вибори» і аналізували, які слова підказує пошукова система. У перших рядках виявлялися «вибори вкрадені», «вибори сфальшовані», «вибори неправильний підрахунок голосів». Схожими є підказки, що просувають теорії змови, і для слова «вакцина»: «чому не працює», «чому небезпечна», «чому не допомагає».

Окреме  дослідження  організація присвятила роботі тіктоку — соцмережі, про яку мало говорять у зв’язку з просуванням контенту, що розпалює ненависть або романтизує екстремізм. Як каже дослідниця, алгоритми тіктоку мають у цьому сенсі колосальні можливості — і ті, хто зацікавлений, активно користується цією можливістю. З’ясувалося, що 24% відео, які аналізували дослідники, просувають білий супрематизм, екстремістські чи терористичні групи; користувач знаходить такий контент з першого запиту і творці цих відео свідомо використовують механізми просування в соцмережі через хештеги. А соцмережа, як свідчить аналіз, не здатна якісно модерувати такий контент.

Єдиний вихід із ситуації Коллівер, як і більшість інших експертів, вбачає у прозорості механізмів соцмереж та спільній роботі експертів і представників галузі: «Для боротьби з подібним контентом потрібне не тільки розуміння роботи алгоритмів критеріїв видачі, а й політики соцмереж; слід розуміти, як тікток і Amazon ухвалюють рішення, як тестують алгоритми, і які у них результати. Доступ до таких досліджень необхідний незалежним аналітичним центрам та громадянському суспільству. Існує низка нормативів, на кшталт  Закону про цифрові послуги  та цифрову безпеку, але потрібен незалежний аудит з урахуванням безлічі зацікавлених сторін».

Поляризація заради монетизації

Основна проблема у поширенні дезінформації та іншого шкідливого контенту — не в тому, що платформи використовують у кампаніях або що це робиться свідомо та зловмисно. А в тому, що самі механізми великих платформ від початку є такими, які впливають на формування думок користувачів, і це є частиною бізнес-стратегій платформ, вважає Кортні Редш, експертка з прав людини та медіатехнологій.

Понад 70% користувачів у США бачать в стрічках контент, підготовлений на клікбейт-фермах Македонії та Косово, хоча самі користувачі ніколи не заходили на сторінки, пов’язані з цими державами або не обирали нічого схожого у своїх пошукових запитах. Приблизно така сама ситуація у німецьких користувачів. Усі ці статті з’явилися у стрічках завдяки зусиллям самої платформи. У 2015 році Facebook (тепер Meta) запустила сервіс «Миттєві статті», який дозволяв користувачам мобільного додатку переглядати матеріали ЗМІ, не залишаючи стрічку соцмережі. Таким чином, фейсбук отримував доходи від реклами, від’їдаючи шматок рекламного пирога у гугла, а натомість дозволяв ЗМІ або конкретним авторам монетизувати свій контент. Незабаром з’ясувалося, що для великих ЗМІ це не надто вигідна угода, а ось для копіпастерів, які можуть створити сайт, заповнюючи його плагіатом і розміщувати його на десятках різних сторінок у соцмережі — золоте дно. Особливо якщо контент буде провокаційним, таким, що розпалює ненависть до етнічних, ґендерних, релігійних груп. На такі посилання найчастіше клікають, забезпечуючи «клікбейт-фермам» стабільний дохід.

Подібний контент і просували «клікбейт-ферми» у М’янмі, Філіппінах, Німеччині та США; деякі з них заробляли мільйони доларів на рік, отримуючи прибуток від фейсбуку і гугла. Саме вплив онлайн-платформ призвів до геноциду рохінджа у М’янмі, поляризації суспільства та  приходу до влади диктатора  на Філіппінах, до просування екстремістського контенту, зокрема ІДІЛ, «Аль-Каїди» та білих супрематистів, у США. Завдяки їм у праворадикальної партії «Альтернатива для Німеччини» в п’ять разів більше охоплення користувачів, ніж у інших німецьких партій.

Особливу проблему алгоритми соцмереж становлять для ЗМІ.

По-перше, оскільки хибна інформація поширюється швидше та ефективніше, охоплює більшу кількість людей, виникає проблема довіри до ЗМІ. З одного боку, дезінформація чи шкідливий контент часто орієнтовані на дискредитацію журналістів: їх представляють як творців брехливих новин. З іншого боку, дезінформація та фейки заповнюють прогалини, які виникають у роботі ЗМІ — наприклад, під час пандемії, коли на початку поширення коронавірусу бракувало наукової інформації.

По-друге, масштабна дезінформація, яку просувають алгоритми платформ, не дає журналістам та ЗМІ формувати актуальний порядок денний із ключових питань, зокрема, про вибори, охорону здоров’я тощо. Комерційні інтереси платформ впливають на просування плагіату, фейків та шкідливого контенту, через що знижується видача достовірної інформації.

«Сама логіка штучного інтелекту змушує журналістів сумлінних ЗМІ перерозподіляти ресурси, щоб підлаштуватися під їхні алгоритми — наприклад, як тільки фейсбук взявся просувати відеоконтент, це змусило новинні редакції робити більше відеоматеріалів. Коли фейсбук почав просувати контент від друзів, а не медіа, ЗМІ знову змушені були наймати людей для оптимізації та просування свого контенту. Таким чином, платформи обмежують можливості медіа.», – Каже Кортні Редш. Крім цього, зазначає експертка, очевидно, що є суттєва різниця між ресурсами, які витрачають держави на просування дезінформації, і ресурсами, якими володіють приватні ЗМІ, навіть найбільші. Журналісти у багатьох випадках заробляють стільки само чи навіть менше, ніж тролі. Це створює додаткові складності для створення якісної інформації, оскільки ЗМІ, з усіма непорівнянними витратами на виробництво власного контенту, доводиться конкурувати з клікбейт-фермами, чиї витрати на виробництво контенту суттєво нижчі.

«Ми бачимо, що скоординовані кампанії з дезінформації зараз є домінуючою логікою в онлайн-просторі. Це можна проаналізувати за ситуацією з коронавірусом, де легко простежити дванадцять суперрозповсюджувачів, які суттєво вплинули на появу потужного антивакцинаторського руху. І все це стало можливим завдяки тим алгоритмам, які закладені в саму структуру соцплатформ та бізнес-логіку корпорацій, вразливості якої можна експлуатувати, — додає Редш. —  Інтерес цих платформ не співпадає із суспільним інтересом. Насамперед, вони орієнтовані на оптимізацію, на зростання користувачів та взаємодій, на користь тих, хто спроможний платити».

Експертка вважає, що невелика кількість платформ, які визначають логіку розповсюдження інформації, є серйозною проблемою. Завдяки їхнім алгоритмам, які просувають клікбейтну, шкідливу інформацію, відбувається процес поляризації суспільства, а центр і «центристська», тобто така інформація, що не поляризує та не радикалізує користувачів, просто стає невидимою.

Рішення проблеми дезінформації, запропоновані самими платформами, поки що не показують ефективності. По-перше, через мінімальну модерацію контенту неєвропейськими мовами. Основні зусилля соцплатформи спрямовують на модерацію контенту в США та Європі. По-друге, зараз платформи самі проводять оцінку інформації, вирішують, як її контролювати та модерувати. На думку експертки, самим платформам із проблемою не впоратися — потрібні зусилля та держави. «Наше завдання – перебудувати саму логіку функціонування цих систем. Адже такий величезний вплив не може перебувати під контролем такої невеликої кількості організацій і людей», – каже Редш.

Що робити?

Немає повністю ефективного плану протидії дезінформації та іншому шкідливому контенту, що розповсюджується за допомогою штучного інтелекту. Але експерти сходяться на тому, що його можна буде виробити, якщо всі зацікавлені сторони — держави, міжнародні організації, громадянське суспільство та самі платформи — почнуть докладати скоординованих зусиль. Без цих партнерств ані платформи, ані окремі держави просто не впораються із ситуацією.

Найважливіше — розуміти вплив монетизації та, ширше, бізнес-моделі онлайн-платформ на поширення дезінформації. Тому експертам і державам потрібне чіткіше уявлення про роботу алгоритмів. Прозорість цих механізмів та зовнішній незалежний аудит їхньої роботи — один із ключів до боротьби з дезінформацією.

Крім цього, і міжнародні організації, і самі держави мають розробити національні та міжнародні нормативи, стратегію, в рамках якої працювали б платформи. Такі ініціативи вже є. Великобританія працює над власним законодавством, в ЄС обговорюються закони про цифрові послуги та цифровий маркетинг, які посилять відповідальність платформ за видалення незаконного контенту, а також зроблять алгоритми прозорішими.

Експерти також наголошують, що і держави мають взяти на себе зобов’язання та захистити, з одного боку, свободу слова, а з іншого — право вільно формувати свою думку без впливу скоординованих інформаційних атак. Окрім цього, законодавці повинні розробити систему оцінки ризиків: без їхньої реальної оцінки неможливо зрозуміти, яка інформація справді шкідлива і до яких наслідків її поширення може призвести. У Великій Британії, яка готується до ухвалення власного закону про онлайн-платформи до 2024 року, буде сформована консультаційна рада з протидії дезінформації, куди входитимуть дослідники, регулятор, представники платформ та громадянського суспільства. Створення такого органу розглядають і у Франції.

Можливі й інші ініціативи та інші підходи, наприклад, людський нагляд за роботою та рішеннями ШІ, навчання ШІ на більш повних рядах даних і для більшої кількості мов, щоб модерація контенту була більш зрозумілою і не викликала недовіри у користувачів. Ці зусилля вже докладають самі платформи — наприклад, фейсбук уже створив незалежну спостережну раду, яка впливає на ухвалення рішень щодо модерації контенту, а її рішення є обов’язковими для виконання. Але очевидно, що людство вперше зіштовхнулося із проблемою такого тотального впливу на життя, погляди і здоров’я людей. Цю проблему можна вирішити лише спільними зусиллями.

Джерело: Гала Скляревська, для Детектора Медіа

Фото: unsplash.com