Вікторія Одусанво
7 січня Марк Цукерберг, голова компанії Meta, що володіє соціальними мережами Facebook, Instagram та Threads заявив про зміни у політиці модерації контенту для усіх своїх платформ. Головним оновленням стане заміна перевірки фактів третіми особами на систему заміток спільноти, подібну до тієї, що використовується платформою X (Twitter). Таке рішення підприємець пояснив бажанням зменшити рівень цензури та повернутись до свободи слова. Окрім цього, Цукерберг планує відмовитись від обмежень політичного контенту, які компанія запровадила у 2021 році, та повернути політичні та активістські дописи для користувачів, які активно взаємодіють з такими постами.
В соцмережі X користувачі можуть залишити під постом нотатку-доповнення або вказати на помилки, допущені в інших публікаціях. При цьому замітки мають отримати оцінки інших користувачів, аби виправлення стали видимими для загальної аудиторії X. Представники Meta поки не опублікували точний алгоритм, за яким ця система працюватиме у їхніх соціальних мережах, проте, за наявною інформацією, вона може базуватись на подібній до X логіці.
Нова політика компанії викликала бурхливі суперечки як серед світових експертів з кібербезпеки, так і пересічних користувачів, адже масштабні зміни алгоритмів управління інформацією можуть мати значні наслідки для безпеки користувачів платформ.
Частина спостерігачів оцінила нововведення позитивно. Дженк Югер (Cenk Uygur), засновник цифрового новинного каналу Young Turks вважає, що цей крок зможе зменшити вплив так званих “старих медіа”, які використовували перевірку фактів для приховування інформації замість обіцяної підтримки об’єктивності. Ренді Вебер, представник Республіканської партії США від штату Техас назвав зміну політик Meta довгоочікуваним наданням американцям можливості “приймати власні рішення”.
Деякі експерти, навпаки, засудили нову політику компанії. Ніл Браун, президент медіа-дослідницької організації Poynter Institute, розкритикував позицію Цукерберга за “демонізацію” перевірки фактів та перебільшення їхньої ролі у введенні цензури на платформах Meta Він зазначив: “Факти не є цензурою. Фактчекери ніколи нічого не цензурували. Настав час припинити використовувати провокативну та хибну термінологію, описуючи роль журналістів та перевірки фактів”. Максим Саваневський, CEO комунікаційного агентства PlusOne вважає, що заміна процедури фактчекінгу може призвести до “хаосу та різкої поляризації суспільства, зокрема в Сполучених Штатах”.
Питанням, яке викликає найбільше побоювань у експертів є ефективність системи заміток спільноти та її здатність справлятись з об’ємами постів, які генерують користувачі Meta. Хоча замітки спільноти мають потенціал до створення більш об’єктивного та “вільного” середовища, наявні дослідження цього підходу у соціальній мережі X вказують на значні недоліки системи. Зокрема, проблематичним є повільність процесу затвердження нотаток, адже аби замітки та поправки, які вносяться користувачами, стали видимими назагал, вони мають отримати певну кількість оцінок інших користувачів. Таким чином, з того часу як потенційно хибний контент буде поширено та до моменту виправлення інформації спільнотою може пройти значна кількість часу. Окрім цього, корисні нотатки можуть не опублікуватись через відсутність консенсусу користувачів, які оцінюють замітку. Валері Віртшафтер (Valerie Wirtschafter) з Brookings Institution зазначила, що запускати подібну систему без попереднього тестування є безвідповідальним з боку Meta.
Темою для дебатів стала також мотивація Марка Цукерберга до зміни політик Meta. Попри заяви підприємця та його оточення про прагнення до збільшення свободи слова, частина експертів вважає, що причини такої поведінки є більш прагматичними. Ігор Розкладай, заступник директора Центру демократії та верховенства права, зазначив, що спонукати до змін компанію змусила перенавантаженість алгоритмів. За словами експерта, Meta занадто сильно покладалась на алгоритми у питанні регулювання інформації. В результаті, частка контенту, яка відсіювалась автоматично стала завеликою, що, в свою чергу, шкодило компанії.
Ще однією причиною, до якої схиляється частина експертів, є перемога Дональда Трампа на президентських виборах. Підґрунтям для такої оцінки стало різке “потепління” стосунків між Трампом та Цукербергом, якому передували погрози “довічного ув’язнення” для гендиректора Meta, якщо той спробує втручатись у вибори США. Альтернативним поглядом на ситуацію є питання реалістичності перевірки фактів загалом. Ню Векслер (Nu Wexler), консультант з питань комунікації політик, який працював з Facebook, Twitter та Google, зазначив: “Перевірка фактів у соціальних мережах працює в теорії, а платформи, які намагаються втілити цей задум заслуговують більшого визнання. Проте така політика майже неможлива в нинішньому (політичному – В.О.) кліматі і це стало болючим питанням для компаній Капітолійського пагорба.”
Якою б не була мотивація Марка Цукерберга, рішення про повну відмову від перевірки фактів третіми особами є досить контраверсійним. Зменшення використання алгоритмів справді допоможе скоротити кількість несправедливо “цензурованого” контенту, а також створити позитивну динаміку для тих акаунтів, які потрапляють в “тіньових бан” необгрунтовано. Зокрема, це може бути корисно для українських та іноземних про-українських організацій та блогерів, які зазнають втрат в охопленнях через те, що алгоритми розцінюють висвітлення подій Російсько-Української війни як “політизований” контент.
Водночас значно збільшитися може частка шкідливих та аб’юзивних дописів, які раніше не пропускались платформами через більш прискіпливий контроль. Кейсі Ньютон (Casey Newton), технологічний журналіст, засновник та редактор видання Platformer, поділився цитатою одного з колишніх працівників компанії Meta: “Я не можу описати скільки лиха може завдати не протизаконний, проте шкідливий контент. Це принизливий, жахливий контент, який призводить до насильства та створений з наміром нашкодити іншим людям”.
Окрім цього, питання викликає ефективність системи заміток спільноти у боротьбі з контентом, згенерованим ШІ, адже в цьому випадку можливість відсіяти подібний контент безпосередньо залежатиме від вміння користувачів платформ розрізнити матеріали, створені за допомогою штучного інтелекту. У 2022 році було проведено онлайн-дослідження, в якому брали участь 3000 учасників зі США, Німеччини та Китаю. Згідно результатів дослідження, здатність учасників правильно визначити матеріали згенеровані ШІ не перевищувала 50%. Ця тенденція підтверджує небезпеку, яку становить можливість використання ШІ для маніпуляції настроями та розповсюдження фейків у соцмережах.
Загрозу становить також збільшення інтенсивності гібридної агресії у соціальних мережах. Одним з трендів російської пропаганди було використання бот-ферм для маніпуляцій настроями людей та політичних махінацій. Попри те, що система заміток спільноти має потенціал до зменшення кількості користувачів та контенту, які потрапляють під цензуру через помилки алгоритму або несправедливу оцінку “спрямованості” контенту, можливість відфільтровувати дезінформацію та пропагандистські матеріали ставиться під сумнів.
Алекс Махадеван (Alex Mahadevan), директор MediaWise, проєкту з цифрової грамотності на базі Інституту Пойнтера, висловив занепокоєння з цього приводу. Побоювання експерта полягають у тому, що замітки спільноти значною мірою базуються на пошуку консенсусу між думками та оцінками користувачів. Таким чином, подібна система може не працювати для масштабних проєктів. Окрім цього, це створює загрозу об’єднання спільнот користувачів з метою свідомої маніпуляції замітками. Так значна кількість людей може просувати бажані наративи позначаючи певні замітки як корисні або, навпаки, шкідливі без прив’язки до об’єктивності та правдивості контенту.
Загалом, подібна система, хоч і має певні переваги, виглядає досить небезпечною для сучасного цифрового середовища. Зокрема відсутність чітких засад кризового менеджменту та засобів протидії гібридній агресії та ШІ викликають найбільше занепокоєння, оскільки відкривають нові “цифрові двері” для авторитарних держав та кримінальних спільнот.