Черговим гостем спецпроєкту УКМЦ “Кава з Трощинською” став Ігор Розкладай, головний експерт із медійного права та модерації контенту в соціальних мережах ЦЕДЕМ Центр демократії та верховенства права. Ведуча проєкту, головна редакторка Громадського радіо Тетяна Трощинська обговорила із фахівцем як постити про війну, щоб контент не видалили.
До вашої уваги повна текстова версія розмови:
Тетяна Трощинська: Ви представляєте центр, який є партнером компанії «Мета».
Ігор Розкладай: Це називається trusted partner або довірений партнер «Мета». Власне, ми вже таким є десь 5-6 років. Тут з часом трошки важко зорієнтуватися, але приблизно так.
Тетяна Трощинська: І це має стосунок до сприяння в модеруванні контенту, в роботі зі скаргами і т.д.?
Ігор Розкладай: Насправді первинно trusted partner організації це організації, які можуть доносити платформам, що є певні проблеми, є якісь кейси, які неправильно відмодеровані, є якісь прояви, є мова ворожнечі, яка не ідентифікована, наприклад, і т.д. Зараз, якщо ми дивимося на Європейський Союз, то власне в рамках діджітал сервіс ІСЕ, тобто акту про цифрові сервіси, вони називається трастед флегерс, тобто довірені позначувачі, напевно, ті, хто махають прапорцями. Але сенс якраз у тому, що це взаємодія платформи з некомерційними гравцями, які можуть, власне, вказувати на певні проблеми чи допомагати вирішувати певні кейси. І власне, так, ми цим якраз займаємося, особливо після 24 лютого це набуло досить великих масштабів.
Тетяна Трощинська: Перший блок моїх запитань стосується соцмереж, і це, мабуть, Фейсбук і Інстаграм. Те, що стосується компанії «Мета». Може, Твіттер зачепимо, але дотично. Більша частина людей, які нас слухають, скажуть, що вони стикалися, і я особисто стикалася, і пан Ігор підтвердить, що зокрема Громадське радіо вже три доби у нас в роботі фактично, тому що там навала російських ботів, які просто жити не дають, і на слово мобілізація реагують, і на якусь ще кількість слів реагують і т.д. Отже, українські користувачі соцмереж, переважно Фейсбуку, скаржаться на масові і постійні бани. Чи справді це так? Чи це моє таке користувацьке і журналістське враження?
Ігор Розкладай: Я думаю, не тільки українські насправді. Тому що проблема в чому? Проблема, напевно, в очікуваннях, проблема в тому, що українські користувачі, особливо українські, власне хочуть поширювати певний контент, і тут виникає конфлікт, що платформа цей контент не дуже дозволяє. І користувачі думають: а, ми хитрі, ми зараз замінимо символи в слові, і прокатить, – а воно не прокачує.
Тетяна Трощинська: Тобто, якщо літеру С в слові русня міняти на $?
Ігор Розкладай: Ні, це не допоможе. І якщо ви напишете “рсн”, і якщо ви напишете “кцп” і подібні символи – не допоможе. Тобто, все одно прилітає. Більш того, я скажу, от щойно до мене звертався учасник такого гурту «1914», тобто, їхня вся творчість пов’язана з Першою світовою війною. І от вони запостили картинку зі словом «русня» на снаряді, і це вже другий кейс, коли прилітає. Перший був в Укрінформу, їм власне за подібну історію прилітало. І тут прилітає. Тобто, треба означити, що якщо воно на зображенні, це теж не захист. Тому що зображення ідентифікується системою, і це дуже легко перевірити. Якщо ви вмієте хоч трошки дивитися на HTML-код, просто наведіть, є такий інспектор у будь-якому браузері, можна навести на зображення і побачити, що це зображення описане. Тобто, там є альтернативний текст. В принципі, призначення альтернативного тексту – це для людей з обмеженими, з якимись проблемами, з інвалідністю, щоб можна було озвучити голосом. Але ви побачите, що на цьому зображенні намальовано те-то, те-то. Якщо воно дуже добре розпізнане, воно навіть текст розпізнає. Якщо це рукописне, воно напише: стоїть людина і собака, умовно кажучи. Тому насправді гратися в цю гру, що ми хитріші, не вийде, тому що платформа теж себе намагається захищати, і вони вишукують всі можливі засоби, щоби не допускати те, що вони вважають для себе мовою ворожнечі. Список цей недоступний.
Тетяна Трощинська: Тобто, не можна сказати, що є точно список слів, за які прилетить?
Ігор Розкладай: Цей список є, але він непублічний. В принципі, логіка, напевно, та сама. Чому ми не знаємо, як працюють алгоритми? Бо це комерційна таємниця і це захист від зловживань. Умовно кажучи, маючи список, ти можеш тоді придумати, як його обійти. Тобто, тут логіка певною мірою є, але, з іншого боку, є й невизначеність, тому що користувачі не знають, які слова власне є заборонені, крім тих слів, які прямо вказані в довідці «Мета». Наприклад, з 2017 року заборонені були слова «москаль», «хохол», «кацап», якщо не помиляюся. І це прямо у них написано. У них є стаття, жорсткі питання про модерацію контенту. І власне там описаний цей підхід, що вони блокують ці слова. Тобто, цей словничок постійно оновлюється. Тому що «русні», наприклад, до 24 лютого, очевидно, не було, зараз вона є. Більш того, я скажу, що я сам потрапив теж, отримав санкцію за «русака». Тобто, я вирішив переграти слово «прусак», ви знаєте, що це слово з Першої світової війни. Тобто, коли прусів перевели на тарганів. Є такі історичні паралелі в знецінюванні ворога. І «русак» теж уже потрапив у цей словник.
Тетяна Трощинська: Чи не означає це, як підозрює якась частина українських користувачів і користувачок, що сидять спеціальні росіяни, які намагаються розпізнати ці слова?
Ігор Розкладай: Ні. Ну чому росіяни? Дивіться, ми просто маємо конфлікт з розумінням, як працює платформа і чому вона працює саме так. Ми хочемо, щоб це був вільний простір, який дозволяє нам писати все, що можна. А компанія дивиться на це трошки інакше. По-перше, це бізнес. І як бізнес вони намагаються себе захистити від чого перш за все? Від санкцій будь-яких. Чи судовий позов, чи якісь державні санкції, чи решта. І вони починають себе обкладати правилами такими, щоб захистити свій бізнес. І власне ком’юніті стендерт – це теж певною мірою реакція в тому числі на скандал з «Кембридж аналітика», на звинувачення в геноциді в М’янмі. І відповідно, якщо ви порівняєте навіть стандарти спільноти, які були в 2015 році, це була така одна сторіночка тексту, – то зараз стандарти спільноти навіть мені буває важко читати. Ти маєш посидіти подумати, що ж малося на увазі. Іноді краще подивитися навіть англомовний текст. Вони себе обкладають, вони себе захищають. І відповідно, коли це відбувається, виникає власне цей конфлікт. Тобто, користувач хоче писати якомога менше. Компанія йому каже: ні, ти не можеш, тому що є такі-то правила. Користувач обурюється: а, це свобода слова і все решта. Отримує бан. І власне починається міфологія, що прийшли боти, росіяни, московський офіс ФБ і т.д., всі ці міфи, які живуть просто роками. Хоча під ними насправді немає нічого в основі. Тобто, ми знаємо, що дуже багато людей в «Меті» є українці, причому не лише на якихось рядових посадах, але й синьйор левел, але знову-таки: це бізнес, це недержавна компанія, і в них трошки інший підхід і інше бачення в цій всій історії. З іншого боку, тут можна, звісно, сказати, що якщо вони будуть дуже сильно себе обкладати правилами, завжди знайдеться альтернатива. Власне ми зараз це бачимо в контексті Телеграму. Що люди просто втомлюються постійно самоцензуруватися і якось спробувати поводити себе дуже хорошо, і вони просто обирають ту платформу, де можна все.
Тетяна Трощинська: Фактично той контент, який генерують українські користувачі, відколи почалося широкомасштабне вторгнення, не є такий позитивний, до якого традиційно готова була компанія «Мета» як компанія, яка хотіла об’єднувати друзів, які фотографіями на лижах діляться. Нам зараз якось не до лиж. Можна згадати кілька кричущих випадків, починаючи з фотографій після поранення Масі Найєма, який був забанений, тому що цей контент ображав чиїсь ніжні почуття.
Ігор Розкладай: По Масі я розкажу, це окремий кейс. По Масі що сталося? У Фейсбуку є правила щодо зображення насильства. В принципі, за замовчуванням вони заборонені. Але для України по суті зроблений виняток. І коли у нас є сцени насильства, вони отримують блюр-екран. По суті це технологія, яка прийшла з телебачення. Тобто, на телебаченні в західних країнах, коли показується щось таке, жорстокість, сексуальна поведінка, вискакує екран, який попереджає, що цей контент може спричинити певні проблеми для людей, не знаю, вагітних, дуже чутливих, дітей і т.д. І це по суті та сама технологія. Тобто, тебе попереджають, що там контент, який є чутливий, а дальше ти обираєш, чи ти хочеш подивитися його, чи ні. З Масі тут просто спрацювала автоматика. Вони теж ідентифікували, що це чутливий контент, нанесли блюр, і просто нам довелося оскаржити цей кейс, щоб цей блюр зняти. Тому що це як є. Це людина, це не сцена з вулиці, де хтось поранений. Зрештою, вони дуже швидко відреагували на це. Але це якраз показує недосконалість власне алгоритмів, які працюють. Тобто, те, що ми називаємо ШІ, на щастя, не є, напевно, ШІ, воно ще не є інтелектом. Бо, з одного боку, якби воно було інтелектом, воно би, напевно, краще модерувало. З іншого боку, не знаю. Як цей жарт, який зараз гуляє, як О’Коннер дивиться на нас, як ми заграємо зі штучним інтелектом, з «Термінатора». От десь у кожному жарті є доля жарту. Тому сцени насильства – так, це проблеми. І першою проблемою власне був хештег БучаБородянкаІрпінь. Ми теж займалися цим кейсом. І власне коли ми говорили з представниками «Мета», вони казали: розумієте, нам треба придумати, яким чином навчити алгоритм, який заточений на те, щоб таке блокувати, не блокувати цей контент. І їм знадобилося десь від пів дня до дня, щоби цю історію виправити, щоби перестало блокувати, і вернути ці пости. Але, так, це теж була проблема.
Тетяна Трощинська: Вчорашні кейси, пов’язані з Харковом, де дуже багато було фотографій зі зруйнованими будинками. І там знову все, як ми тут іронічно називаємо – ображає ніжні почуття алгоритму, очевидно. Зараз із цим простіше? Простіше сприймає компанія такі зображення?
Ігор Розкладай: Я принаймні блюрів за вчорашній день не бачив ще. Бувають блюри, от були кілька таких реальних глюків з початку року. Самий смішний глюк був – це Брюс Вілліс, його лиса голова чомусь алгоритмом трошки не так сприйнялася. Довелося оскаржувати. Але ми маємо розуміти, і вони самі це визнають, що так звана хибно-позитивна помилка або фолс позитив – це одна з найбільш проблемних точок, де власне найбільше стається конфліктів і неправильного модерування. І тут чому важливо власне співпрацювати і повідомляти їм про такі кейси? Навіть якщо: та, видалило – та й видалило. Ні, це не видалило – та й видалило. Це ми маємо сказати, що от є кейс, коли якась активність чомусь позначена як сексуальна активність, хоча там взагалі не про це. Тобто, це збій алгоритму. Його треба, значить, вказати, що це рішення було неправильне.
Тетяна Трощинська: Була фотографія після підриву Каховської ГЕС, наприклад.
Ігор Розкладай: З Каховською ГЕС – це дуже дивний, до речі, кейс. Тому що в них є три типи відповіді: або видалено, наприклад, або відновлено, або ні, вибачте, це порушує стандарти спільноти, типу ми перевірили і пересвідчилися, що ми правильно прийняли рішення. І є сама загадкова третя відповідь, це коли ми вжили необхідних засобів. Що це мається на увазі – тут можна гадати. Іноді можна це перевірити емпірично. Наприклад, днями у Сергія Костинського, ви знаєте, колишнього члена Нацради, зараз воїна, в нього з’явився клон. Я подав скаргу. Клон по факту видалений, але власне я отримав відповідь щодо того, що вони вжили заходів. Яких заходів – вони ніколи не пояснюють. І це, напевно, для нас найбільша проблема, що ми не завжди можемо пояснити навіть людині, а що сталося не так, тому що ми самі цього не знаємо. Тобто, ми можемо десь припускати, ми можемо з нашого масиву кейсів, який ми маємо, в принципі, бачити певні тенденції, але бувають кейси, коли ти просто не можеш пояснити, чому так сталося і чому там відновили, чому був заблокований профіль. Розумієш, що якась помилка, але яка – вони не скажуть.
Тетяна Трощинська: Враження таке, що відновлюють дуже рідко, радше не відновлюють. Чи є сенс оскаржувати? Можливо, є якісь секрети оскарження, а ми неправильно робимо?
Ігор Розкладай: Знову-таки, теж емпірично. Оскарження в звичайному порядку – відсоток позитивний дуже низький. Це правда. Так, у мене були кейси, коли була дуже жорстка мова ворожнечі, щось, наприклад, проти євреїв або щось такого плану. То такі кейси ще можуть спрацювати. Коли це неявний кейс, то дуже часто тобі відповідають, що ні, ми не знайшли порушень. І вже коли ти їх репортиш власне по своїй лінії, по лінії довірених партнерів, даєш певний опис ситуації, тоді вже може бути якраз позитивне рішення. Тому, з одного боку, оскаржувати, я вважаю, треба, але без ілюзій, що буде позитивне рішення. Тобто, тут скоріше важлива сама активність, що є реакція на те, що щось не так. Але в будь-якому разі, якщо стаються кейси, де реально абсолютне глупство, то їх уже можна тоді і через нас подавати, тому що це навчання алгоритмів. Тобто, алгоритм має певну формулу, за якою він працює. Якщо він дає збій, значить, треба або масив фіксити, або формулу фіксити, інакше це буде стосуватися інших користувачів.
Тетяна Трощинська: Тобто, якщо ми оскаржуємо, ми допомагаємо вчитися алгоритму?
Ігор Розкладай: По суті так. Тобто, не завжди успішно. Я ж кажу, звичайний спосіб оскарження, як правило, дуже погано спрацьовує. Знову-таки, з досвіду, скільки я від себе знаю, від тих, хто розказував. Але час від часу бувають позитивні приклади. Тобто, пробувати треба. Тому що тут треба чітко розуміти: ми маємо справу просто з формулами, з алгоритмами, вони не мають почуттів, вони не мають розуміння контексту, вони достатньо бувають іноді топорно працюють. Сама класика жанру – це з тими ж словами. Тобто, незалежно від того, який пост, це може бути крик відчаю про те, що знову-таки вчора обстріляли Харків і, що само головне, так званий «московский комсомолец» подав, що це масковані будинки під казарми ЗСУ, чи щось таке, абсолютний брєд. Я розумію реакцію людей. Тут, чесно, цензурні слова вже закінчилися давно насправді. Але, з іншого боку, нам треба теж відстоювати свої позиції і власне оскаржувати все, що тільки можна.
Тетяна Трощинська: Чи має значення для алгоритму, приватна це сторінка, сторінка ЗМІ чи сторінка автора публічного цифрового контенту?
Ігор Розкладай: Не має значення. Дивіться, перша і дуже довга міфологія, мені здається, вона трошки зараз зійшла, але дуже довго побутувала міфологія, що якщо в тебе є синя галочка, значить, ти у безпеці. Як в іграх колись у «Думі» вводиш комбінацію **, і все, ти безсмертний. Воно так не працює. Тобто, синя галочка в будь-якій системі – це лише підтвердження автентичності профілю. Притому тут є теж одне «але». Зі свіжих прикладів. Я натрапив на шахрайську рекламу, яка поширювалася з верифікованого профілю сенатора Мадагаскару, поширювалася на Україну. Тобто, його просто зламали, і при зламі синя галочка теж не втратиться. Тому навіть у цих обставинах завжди треба бути акуратними, бо, на жаль, фішинг і шахрайство – це дуже зараз поширене явище, багато є жертв. Але синя галочка – це лише підтвердження, що ця компанія, ця людина чи цей політик, чи інша якась публічна особа, це дійсно їхній профіль, а не чийсь інший. Все, більше синьої галочки немає. Відповідно, санкції застосовуються як до продавчині з якого-небудь маленького містечка, так само й до політика. Вони є рівними. І до медіа, і до всіх. Тобто, до всіх них застосовуються санкції однаково. Хоча, звісно, щодо медіа тут завжди є питання створення цього так званого охолоджуючого ефекту.
Т: Прибирання чужого професійного контенту – тут теж є завжди питання.
Ігор Розкладай: Так, це власне одна з великих проблематик, над якими ми теж працюємо зараз. Тому що все-таки новинний контент медіа має бути захищений, але це не завжди працює на практиці.
Тетяна Трощинська: Чи є якісь слова або відео, хоча би з досвіду, за які точно в бан? І тоді чим їх заміняти?
Ігор Розкладай: Щодо росіян, я завжди кажу: пишіть «росіяни». «Росіяни» мають стати матюком як таким. В принципі. І не треба вигадувати якихось епітетів. Те, що росіяни вже за кордоном намагаються мімікрувати під українців чи під білорусів максимум – це вже хороший тренд. Тобто, вони відповідають за те, що відбувається в їхній державі. Так, є невеличкий відсоток, який або через просто загрозу життю змушений був виїхати, або якось намагається протестувати, але здебільшого в основній масі росіян це все влаштовує. Тобто, “мы люди маленькие, мы ни на что не влияем, но мы идем убивать украинцев”. І це абсолютно нормально. Достатньо подивитися кілька відео Золкіна, щоб просто зрозуміти психологію цих людей. Насправді я вважаю, що це слово має бути тепер реально синонімом нацизму, фашизму, і хай вони далі думають про свою ідентичність, якої у них в принципі не дуже-то й є. Це вже проблема не наша. Але не треба вигадувати. У нас є власне ворог, у нас є люди, які нічого не роблять. Тому що навіть ті ж іранці, коли я на іранській сторінці написав, прекрасний Іран, я кажу: так, і «Шахеди», які вбивають нас, – мені прийшло в приват, кілька іранців вибачилися. Це хоча б якась позиція. Тобто, ми не можемо побороти цей режим, ми протестуємо, у нас не вистачає сил, але вони хоча би вибачилися.
Тетяна Трощинська: Хоча би кілька людей.
Ігор Розкладай: Так. І їх ніхто не змушує. Тобто, вони самі прийшли. Це було несподівано певною мірою, але це хоча би якась історія. Я не пам’ятаю, щоб жоден росіянин, крім однієї людини, яка ще вибачилася в 2018 році за агресію, щоб хтось вибачився.
Тетяна Трощинська: Чи навчилися за цей час алгоритми щось робити з російською дезою, пропагандою і т.д.?
Ігор Розкладай: Так. Справа в тому, що ми якраз тут вже створили таку неофіційну коаліцію всіх, і фактчекерів, і всіх, хто займається медіаграмотністю, і разом з Центром стратегічних комунікацій ми дуже сильно обмінюємося інформацією. Тому що, по-перше, це збільшує масив даних. Ми бачимо кращу картину. І кожен використовує це в своїй діяльності. Влітку дези дуже сильні хвилі почалися, десь з кінця березня 2023 року. Вони спочатку йшли під якісь дати, особливо був великий наплив під 9 травня, це ж сакральна дата. Звісно, що було дуже багато дези, пов’язаної з контрнаступом і під якісь такі дати. Під День незалежності росія намагалася, взагалі запустила абсолютно ідіотську рекламу про 30 років. 1991-й – незалежність від росії. по-моєму, 1917 рік – незалежність від російської імперії. Причому там чомусь був Петлюра. І, головне, дві тисячі років – незалежність від скіфів. У них реально деякі реклами були дуже тупими. Тобто, по-моєму, вони придумали самі ці вигадки, що українці викопали самі Чорне море, і самі ж у них повірили. Дуже часто схоже. Але вони прощупували по суті наш інформпростір, і вони виявили для себе кілька тем, на які найбільше клюють українці, на жаль. Це тема корупції. Корупція, корупція плюс влада особливо, батальйон «Монако», отакі прояви. Друге – це мобілізація. Тут вони взагалі мало що вигадували. Тобто, вони трішечки вигадували по жінкам, пробували, але не дуже зайшла ця тема, бачимо. Але найбільше, що вони роблять, – вони виловлюють в ТікТоку ролики, як реально хапають чоловіків на вулиці, особливо це одеський кейс, і вони просто це масштабують через свою дезу.
Тетяна Трощинська: І це можуть бути 1-2 кейси, які складають враження маси?
Ігор Розкладай: Вони намагаються масштабувати це на всю країну. Тема мобілізації – це дуже улюблена в них тема. І третя тема – це зовнішня підтримка. Тут від неякісної зброї, що стару зброю чи неякісну дають, до того, що Ізраїлю нужніше, і нас покинуть, що Ізраїлю дали стільки-то, а нам дали взагалі крапельку. Тобто, ізраїльська тема дуже сильно розкачувалася, причому не лише на Україну. Вони її розкачували на Францію, на Німеччину. Там йшла франкомовна, німецькомовна реклама. І навіть я виловив одну рекламу на ізраїльську аудиторію, що, умовно кажучи, хохли скупили в супермаркетах всю воду, тому не вистачає води в супермаркетах Ізраїля. Російськомовна, до речі, реклама. Але такий зразок теж мені траплявся. Але, на щастя, здебільшого «Мета» навчилася видаляти. Єдине, що поки що не ок, що вона видаляє це не одразу, а десь через пів доби, іноді буває довше. Як правило, в межах доби вона видаляється. Тобто, вона з’являється, вона крутиться, потім вона індексується в бібліотеку реклами, і вже після цього спрацьовують якісь інші алгоритми, які виловлюють і дезактивують ці профілі повністю.
Тетяна Трощинська: А поки вона крутиться, ця корупція, мобілізація, зовнішня підтримка, наші люди зловилися і розганяють?
Ігор Розкладай: Вони починають ловитися, вони не бачать. Причому в мене були кейси, коли навіть знайомі ловилися. Кажу: навіщо ви лайкаєте? Кажуть: так це ж реальний кейс. Я кажу: так, реальний кейс, але ви подивіться, хто його поширює. Тобто, люди не дивляться на профіль. Їх тригерить певна тема, яка їм дуже близька. І власне на це все й розраховується. Тобто, суто психологічно взагалі всі ці шкідливі прояви, де шахрайство, фішинги, – вони дуже добре психологічно продумані і тому вони, на жаль, ефективні. Так само ті ж аналітики. Один із елементів, які вигадали росіяни, – це поширення дези. Далі вони кидають лінк на абсолютно ліві сайти, не знаю, як бобри, кролики п’ють воду, щось таке буде. Там назви бувають абсолютно дикі. Це просто сайти для того, щоб обійти блокування самої «Мети», бо «Мета» блокує шахрайські сайти. У них є функція цього. Теж починають у нас користувачі обурюватися: кібербезпека, що їм щось заблокували. Це блокування або спаму, або якоїсь шахрайської активності. Тут не треба ображатися. Тут треба уважно просто дивитися, що відбувається. І власне через сайт-посередник там просто скриптик перекидає вас на частковий клон певного медіа. Вони дуже облюбували УНІАН, РБК, УНН. Це принаймні, напевно, трійця, яка найбільше підробляється. Були спроби підробляти «Українську правду», були спроби підробляти «Новий канал», але щось не дуже у них вийшло. Навіть «Комсомольську правду», прости, Господи. Але вони підробляють, вони ці технології теж пробували і на Заході. Я бачив підробку достатньо відомого порталу польського. І сенс у тому, щоб вас загнати на сторінку шахрайської статті, власне з дезінформаційною статтею. Тобто, весь антураж цієї сторінки, всі посилання, логотип, меню, автори – вони всі автентичні, і ви якщо клікнете, ви опинитесь на реальному сайті. Але саме ця сторінка є шахрайська. І це виявити можна тільки якщо подивитися уважно на домен, що домен не той, який справжній. І власне це перевірити – клікнути на меню, потрапити на справжній сайт, і ви не знайдете цієї статті там. Але вони це дуже активно обкатують, я би сказав, десь з другої половини 2023 року. І дуже багато статей. На жаль, це навіть доходить до булінгу журналістів, тому що люди думають, що цей журналіст написав справжню статтю, а це не так. І блокування цього – це трошки проблематичною стає історією, бо треба блокувати по суті весь ланцюжок, не лише «Мету», але й самі ці шахрайські домени. Тут не завжди це буває успішним. Буває успішним, буває ні.
Тетяна Трощинська: І українські сторінки теж для цього привабливі, з тих причин, які ви називали? Настрій, стан, емоційна розхитаність?
Ігор Розкладай: Так. Власне те, що теж було дуже помітно, це, звісно, може бути збіг, але коли він триває майже рік – це не дуже на збіг схоже. Фішингові прояви, як правило, чергуються з дезінформацією. Тобто, йде дуже сильна дезінформація. Потім вона згасає, починається дуже сильна фішингова хвиля. І вона, як правило, міжнародна. Вона націлена на дуже багато країн. Бо я виловлював ці всі повідомлення для адміністраторів сторінок і французькою, і хорватською, польською, на Тайвань було, на США. Тобто, на дуже багато країн. Ти бачиш, що, в принципі, джерело цього всього десь у Східній Азії, як правило, В’єтнам, Індонезія, в тих краях власне є джерело. Але я думаю, що не без росіян, тому що проскакують ознаки, російські такі сліди в назвах сторінок, в описі, іноді російська мова навіть, буває, проскакує. Але тут проблема, що воно масове, воно спрямоване на переляк знову-таки, на втому, на переляк, на неуважність. І от ті, кого я питав, чому ж ви повелися на це, реально люди заклопотані: ну відчепіться, що там якісь повідомлення, ну хорошо, клікнув, кудись зайшов. А те, що ви передали дані шахраям, вони вже не розуміють. І ще один прояв, який теж зараз дуже активно розкачується, але він дуже гібридний, тому що його вхід однаковий, – це реклама виплат від ООН, від НАТО, від Червоного Хреста, від «Дії», «єДопомога». Коротше, купа варіацій. Але тут два виходи з цієї реклами. Перший – це безпосередньо власне фінансовий фішинг, коли вас просять зайти, перекидають на сторінку, вам треба клікнути щось. І в результаті далі ви вводите свої дані карточки і код безпеки. Що буде далі – не треба пояснювати.
Тетяна Трощинська: Але люди це роблять?
Ігор Розкладай: На жаль, роблять, так. Тут вдається краще з цим боротися. Тут є співпраця і з нашими органами, в принципі, на всіх рівнях. І наші органи так само намагаються блокувати і попереджати, що це шахрайство. Десь спрацьовує безпека Гугла, тобто, Гугл і відповідно браузери на кшталт того ж навіть ФаєрФокса, який вони використовують у взаємодії з системою антифішинговою Гугла, – вони просто попереджають про небезпеку. Тобто, вже є якась хоча би протидія.
Тетяна Трощинська: Це важливий момент – яким браузером ти користуєшся?
Ігор Розкладай: Я можу сказати, що, наприклад, по статтям-наліпкам, наприклад, ФаєрФокс не дає переходити на ці наліпочні статті. Те, що в мене принаймні, Хром дає переходити. Тобто, ФаєрФокс у цьому плані став блокувати власне цей код пересилання, розуміючи, що це якась шахрайська активність. А чому Гугл не робить це, не знаю. Але дуже хотілося б, щоб вони теж заблокували цю можливість. Другий вихід з такої реклами – це, як не смішно, реклама анонімних Телеграм-каналів. Тобто, дуже часто під цими виплатами є просто так званий накрут, коли виникають як гриби купа всяких різних, особливо псевдопатріотичних новинних каналів, які дуже люблять поширювати на кшталт: “увага, чистка каналу від русні, якщо ти українець, натисни так, якщо ти українка, натисни так”. Там, в принципі, що не натискай, тебе просто перекидає ще на один Телеграм-канал. І ця пошесть теж досить давня. Ці накрути – це просто вас заманюють на Телеграм-канали, які можуть поширювати, просто бути як чиїмось умовним бізнес-проєктиком, так і власне джерелом дезінформації, посіяння паніки і все решта. Про це досить регулярно пишуть. Зокрема, вчора деякі канали прямо казали: завтра буде атака росіян, тому треба підписатися саме на цей канал. Чий це канал, хто за ним стоїть? Тобто, я розумію, умовно, ще можу зрозуміти канал на кшталт «Миколаївського Ванька», який, очевидно, є військовослужбовцем, і очевидно, він не може себе викрити, бо це його безпека. Але він якби своїм контентом довів, що це доволі достовірне джерело інформації. Але ж дуже багато каналів, які можуть називатися «Новини України», все що завгодно, – це просто зливні бачки, які призначені для того, щоб вам засмічувати мізки.
Тетяна Трощинська: Які є прості рекомендації?
Ігор Розкладай: Перше правило – того, що через рекламу в Фейсбук не будуть поширюватися жодні виплати. Тобто, навіть якщо ви подивитеся офіційну рекламу від «Дії», наприклад, яка поширювалася, як правило, це реклама інструментів, тобто, реклама чогось. І воно має привести вас на сайт в домені gov.ua. Це буде єдопомога.gov.ua або дія.gov.ua або щось на кшталт такого. Якщо вас приводить на сайт фан, чи вікс.сом, чи тільдер, не дай Бог, ви маєте розуміти, що це просто 200% шахрайства, і далі немає чого робити. Тобто, треба просто закрити, а ще й бажано поскаржитися на таку рекламу. Там, до речі, є опція «шахрайство». Друга історія з фішингом сторінок, те, на що ведуться люди, – що приходять сповіщення, дзвіночок начебто від «Мети», що ви порушили авторські права. Треба зрозуміти, що єдине місце, куди прилітають власне ці повідомлення, – це меню в допомозі і підтримці, там повідомлення від служби підтримки, ваші сповіщення. Тільки там знаходяться. Всі ці повідомлення, їх дуже легко перевіряти. Тобто, якщо вам прийшло якесь таке сповіщення, ви просто клікаєте на це сповіщення, клікаєте на профіль і розумієте, що вас просто тегає звичайнісінька сторінка-одноденка, і вона жодним чином не пов’язана з «Метою». Так, був єдиний виняток у перші дні цього року, але, слава Богу, якось цю історію прикрутили, принаймні вона була декілька днів, і мені дуже багато СММників скаржилися, що їх просто атакують. Шахраї використали механізм гостьових повідомлень. Це механіка, яка була створена для бізнес-сторінок, для того, щоб, наприклад, користувач, який не є користувачем Фейсбуку, міг написати сторінці на Фейсбук, замовити якусь послугу. І шахраї почали використовувати цю механіку для того, щоб надсилати ті самі повідомлення у приват. Вони просто були дуже масові, їх не можна заблокувати, тому що профілю не існує. Тут уже довелося трошки персональні зв’язки використовувати, щоб повідомити про цю проблему. Принаймні те, що я бачу зараз, – якось це як різко почалося, різко й зникло. Можливо, знайшли все-таки, як заблокувати цю історію. Але знову-таки уважно дивитися пост. Якщо там іде посилання не на домен Фейсбук.сом, а на “бр” якийсь, якийсь “пейджис”, якісь скорочення, типу лінк.бо, чи щось таке – забуваємо і не клікаємо категорично. Тобто, краще проконсультуватися з кимось, що це таке, але в інших випадках це просто може бути шахрайство. І, до речі, тут так само дуже важливо перевіряти повідомлення на пошту. Бо були в мене зразки, коли на пошту приходило сповіщення начебто від «Мети», але там адресат був не той. Це, до речі, стосується не лише «Мети». Я знаю, Лінкедін намагалися так підробляти, і багато ресурсів. Перше, куди ми дивимося, – це адресат. Тобто, не назва адресата, а саме на його пошту, вона буде якась така абракадаброва. Друге – навести мишкою на посилання власне. Якщо просять натиснути якусь кнопочку, щось підтвердити, дивимось, куди вона веде. Якщо вона знову-таки веде не на Фейсбук.сом, а, наприклад, на якусь абракадабру, просто видаляємо і навіть не реагуємо. Тобто, знову-таки, всі ці фішингові штуки здизайновані на те, щоб схопити людину на переляк, на: “ой, щось трапилося, зараз мене заблокують, ой”. Але, якщо дуже уважно подивитися, можна зрозуміти, що насправді це не так.
Тетяна Трощинська: Світлини, згенеровані штучним інтелектом. Україночка, яка склала ручки.
Ігор Розкладай: Першим був хлопчик із Бахмута, україночка, яка стоїть на руках. Моляться за Авдіївку. Ці світлини насправді певною мірою легко вичисляти, бо в них є якесь таке відчуття обробки, умовний Фотошоп. По-друге, ця історія з наїздом на бігусів, там теж були використані світлини, згенеровані в ШІ. Наша колега з проєкту НотаЄнота якраз звернула увагу, наприклад, що сережки просто висять у повітрі, вони не прикріплені до вуха. Бувають такі штуки, що, наприклад, у людини 6 пальців. Тобто, треба на такі світлини досить уважно придивлятися. Як правило, там є якісь збої, це або руки, або щось не так взагалі з анатомією тіла, або не той візерунок, не та форма. Хоча я розумію, що це буває важко визначити. Тут краще перевірити. І, в принципі, є достатньо багато сервісів, куди можна завантажити ці світлини і подивитися, коли взагалі вона з’явилася. Тобто, були якісь кампанії теж дуже сумнівні, коли ти кидаєш цю світлину і виявляєш, що вона вже гуляє, наприклад, років 7-8. Тобто, вона хвилями з’являється. Вона перший раз з’явилася в 2017 році. Це вже навички медіаграмотності. Але знову-таки, якщо ми подивимося на ці історії, пов’язані зі штучно генерованими зображеннями, як правило, про що йде мова?
Тетяна Трощинська: Навіщо вони?
Ігор Розкладай: Вони б’ють на емоції, знову-таки, на емоційний стан. Давайте помолимось, давайте щось ще зробимо. Тобто, це певна психологічна теж обробка нас, для того щоб викликати додаткові відчуття тривоги. Може бути навпаки, може викликати відчуття ейфорії: ой, там щось таке хороше трапилося, – а потім ми з’ясовуємо, що це не трапилося. І що у нас, відчуття яке з’являється? Ми розчаровуємося. В принципі, оце взагалі вишибання нас з якогось стабільного емоційного стану, починаючи від цих фальшивих тривог, коли просто літають літаки, щоби нас покошмарити, щоб нам ускладнити життя, навіть пересування між берегами і т.д., до того, щоб просто ми постійно були в цьому тривожному стані. А коли ми в тривожному стані, на нас легше діяти дальше через різні ІПСО, конфлікти і т.д. Тобто, інформаційна і психологічна війна – це теж елемент війни. І тут, на жаль, дуже часто українці самі дають дуже багато поживи, реагуючи на це. Наш улюблений спорт – це срачі. Тобто, це все – теж елемент того, що ворог цим користується і не треба це недооцінювати.
Тетяна Трощинська: Ми ж не можемо заборонити людям робити те, що їм шкодить.
Ігор Розкладай: Так. Люди курять, люди їздять, не пристібаючись. Тобто, кожен відповідає за своє життя. Але проблема соцмереж, власне, як на дорогах. Коли ти не пристібнувся, це одна проблема. Але якщо ти їдеш непристібнутий в машині, і машина загальмує, і ти вилетиш у потилицю поперед сидячому пасажиру, то можеш його вбити. Так само у соцмереж. Тобто, поширюючи дезу, ти не є ізольований. В принципі, вдома в себе клей все, що хочеш, умовно кажучи, на своєму телефоні. Можна собі заставку на телефоні повісити, це ж не проблема. Але проблема, що коли ти взаємодієш з соціумом, ти так чи інакше впливаєш. І особливо це дуже помітно по всім цим групам маленьких містечок. Є всякі різні тематичні групи, де дуже люблять поширювати всяку подібну, сорі за слово, хрень. Власне поширюють хрень, люди, не розуміючи. Насправді це інформаційне сміття, яке може дуже негативно впливати. Вам може здатися, що це класно, а інших це може дратувати, когось це може ввести в оману. Тому насправді з такими зображеннями було би все-таки добре, щоби вони були марковані, що це ШІ-генеровані зображення. І навіть якщо не ви їх зробили, нанести. Чи підпис, що це зображення ілюстративне так зване. Це було би, напевно, нормальною практикою. Хоча цього очікувати, окрім як від медіа, напевно, не варто.
Тетяна Трощинська: Телеграм-канали, де з’являється що завгодно. Чи можливо це відрегулювати? Чи ілюзія журналістська про те, що прозорість власності, бодай власників Телеграм-каналу, могла би чомусь сприяти? Чи це такий ідеалізм?
Ігор Розкладай: Це ідеалізм, дуже з простої причини. Дивіться, коли у нас є компанія «Мета», як би ми її не хейтили, чи той же Гугл, але це компанії, які з відомою юрисдикцією. Тобто, вони знаходяться в Каліфорнії, над ними є певне регулювання з боку Європейського Союзу, і так чи інакше ти можеш знайти виходи, якось до них достукатися. Більш того, в принципі, вони прагнуть принаймні дотримуватися базових якихось законів, у тому числі й безпекових. Коли ми маємо на увазі Телеграм, тут все складніше. Тому що Телеграм у нас походить із санкт-петербурга родом. Є свідчення того, що він не сильно звідти й виїжджав. Тобто, є начебто нідерландські сервери. Але те, що в Дубаях, наприклад, офіс Телеграму, там нікого немає вже дуже багато років, – це власне було в розслідуваннях, у тому числі Назара Токаря. І власне коли ми відкриваємо сайт Телеграму, до речі, теж дуже показово, що у них не Телеграм.сом, а Телеграм.орг, тобто, вони взагалі себе трошки некомерційно представляють, бо орг – це в принципі більш некомерційна історія домену. І в них на сайті немає стандартів спільноти від слова взагалі. Тобто, у них є чат, часті питання, в яких щось десь дуже обтічно описано, і не більше того. Відповідно, коли ми говоримо про якесь регулювання, ми маємо розуміти, що для того, щоб щось регулювати, має бути дві опції: або у вас є контроль над цим суб’єктом, тобто він територіально знаходиться на території України, або у вас є добра воля цього суб’єкта дотримуватися правил. Якщо у вас немає ні того, ні іншого, можна написати будь-що. Можна прийняти закон про те, що Телеграм зобов’язаний щось там робити, але він не буде цього робити. Більш того, якщо ми не можемо вплинути на Телеграм, давайте впливати на власників Телеграм-каналів. А тут теж виникає проблема. Тому що якщо ми говоримо про Громадське, про Суспільне, про Укрінформ, не знаю, про «Українську правду», свій варіант будь-якого медіа з України, вони й так відомі, і в принципі вони декларують, що у них є Телеграм-канали, з їхніх сайтів можна на них потрапити.
Тетяна Трощинська: Вони ідентифіковані.
Ігор Розкладай: Так, вони ідентифіковані. Навіть є приклади, коли по закону про медіа, скориставшись нормою статті про онлайн-медіа, там є опція, якщо ти власник профілю в соцмережах, ти можеш зареєструватися і як онлайн-медіа, тобто, за тією ж процедурою. І у нас є реєстрація Телеграм-каналів, Вайбер-каналів, Вотсап-каналів. Тобто, такий тренд пішов. Але що робити з тими каналами на кшталт «Легітимного», на кшталт яких-небудь «Новин України» чи чогось іншого.
Тетяна Трощинська: «Карточний офіс».
Ігор Розкладай: І їх дуже багато. Що ми будемо з ними робити, як ми їх будемо вичисляти? Тут або тоді треба, щоб правоохоронні органи намагалися якось через, умовно, замовлені реклами проводити, і вони щось намагаються з цим робити, і десь це вдається. Але якщо цей канал, наприклад, не має маркетингової історії, він виключно спрямований чітко в інформаційно-військових цілях, можна дуже довго шукати, хто за ним стоїть. Але яким чином, що ми з ним зробимо? Тобто, у вас немає контролю, у вас немає можливості схопити цей Телеграм-канал. І щоб що?
Тетяна Трощинська: А політична воля? Якщо він створений владою, людьми, близькими до влади, офісом президента?
Ігор Розкладай: Знову-таки, це, по-перше, треба довести. Ми можемо мати якісь ознаки, ми можемо мати якісь чутки, але це все-таки має бути юридично доведено. По-друге, окей, навіть ми будемо знати, що є певний канал, який адмініструється з Вірменії. І далі, що далі? Заблокувати канал на платформі неможливо. Або ми тоді маємо дійти суспільної згоди, що, так, Телеграмчик, конечно, класний, можна подивитися, як радісно відриває якісь частини тіла окупантам, але ми погоджуємо, що ми просто блокуємо, наскільки це можливо, знову-таки не на 100%, всю платформу взагалі. Чи готове до цього суспільство? Не певен.
Тетяна Трощинська: Я не впевнена, що навіть влада до цього готова. Скільки органів державної влади нарощували аудиторію, щоб намагатися конкурувати, не знаю вже з ким.
Ігор Розкладай: Власне так, це теж одна з дуже неприємних історій, коли органи влади… Окей, ладно, постачання контенту в Телеграмі, на нього зараз всі підсіли, в тому числі й медіа, на жаль. Але це хоча би одностороннє таке поширення інформації, просто як ще один канал поширення. Але коли це починається взаємодія, що ти там можеш отримати інформацію тільки через Телеграм-бот, тут виникають питання по безпеці. Насправді мені подобається той тренд, який я зараз потрошку спостерігаю, що починається міграція на Вотсап-канали. В принципі, у нас зараз є опція Інстаграм-каналів, Вотсап-каналів, як мінімум. І, можливо, з’являться ще якісь альтернативи в найближчому майбутньому. Але все-таки мені здається, що саме ефективне – це просто перевести користувачів з цієї платформи на щось інше.
Тетяна Трощинська: ШІ – бачите ви тут ризики, загрози, пов’язані зокрема з втручанням у вибори?
Ігор Розкладай: Так, бачу. І власне я би сказав, от приклад, навіть порівняння діпфейків про Зеленського 2022 року і про Залужного 2023 року дуже добре показує, наскільки ці технології зараз прогресують. Знову-таки, повертаючись до теми шахрайства. Зараз на Фейсбуці дуже сильно поширена різного роду реклама різних препаратів, від простатиту, геморою, коротше, всього чого тільки можна, і в них часто використовуються відео чомусь здебільшого «1+1», ТСН і 24 каналу, коли, наприклад, умовна Мосійчук чи Алла Мазур починають розказувати, як класний препарат завезли в Україну. Дивишся: щось тут не то. Потім вдивляєшся і розумієш.
Тетяна Трощинська: Що це не справжня Алла Мазур.
Ігор Розкладай: Ні, вона справжня, відео справжнє. Перша технологія, яку роблять, сама примітивна – вони просто міняють аудіодоріжку. Не сильно заморочуючись, просто міняють. З лікарями ще вони знайшли такий трюк, вони використовують записи лікарів у масці, щоб не було видно губ, і взагалі можна не заморочуватися. Але я вже бачив приклади і реклами, коли намагаються робити ліпсінг, тобто коли роблять підробне аудіо і намагаються в губи вкласти той текст, який говорить людина. Воно ще трошечки топорно. Тобто, якщо ти знаєш цю технологію, то дуже легко побачити, що це підробка. Але просто приклад навіть такого побутового поширення всяких умовних фуфломіцинів показує, що ШІ зараз дуже і дуже прогресує в усіх сферах. Ми ж розуміємо, що навіть уже в американських виборах, і це давно, була використана історія з Ненсі Пілосі, коли там був використаний так званий шеллоуфейк. Тобто, там навіть не підробляли нічого особливо, вони просто уповільнили відеоаудіоряд, і виглядало так, що вона начебто така трошечки хорошо хильнула перед самим ефіром. Хоча там просто було уповільнено на 25%. Нічого, дуже примітивний насправді фейк, але він був поширений мільйонами репостів. І ми розуміємо, що зараз, з 2017 року, коли з’явилися перші фейки відомі, і Барака Обами, і навіть того з Марка Цукерберга, то зараз технології просто прогресують на очах. І ми розуміємо, що поширення діпфейків, поширення навіть порнофейків – це теж один із напрямів зараз власне фейкометства. Це буде все більшою і більшою проблемою. І тут насправді звичайній людині буде дуже важко справлятися. Напевно, тут медіа якраз має взяти якусь роль лідера і пояснювати, і вміти власне користуватися цим, вміти вишукувати, як це підроблено, аналізувати і пояснювати, що ці відео підроблені. В будь-якому разі не гратися. Навіть якщо вам, умовно кажучи, цей політик не подобається, не гратися в те, що якщо це погана людина, давайте ми проігноруємо. Ні, це треба зараз пояснювати всім, тому що це просто стосуватиметься всіх.
Тетяна Трощинська: Технологічних і інституційно-регуляторних рішень тут не проглядається?
Ігор Розкладай: Зараз на рівні ЄС розробляється акт про штучний інтелект. Це такий перший достатньо серйозний акт. Але, знову-таки, технології просто дуже стрімкі, за ними дійсно встигнути не так-то просто. І власне я знаю, що розробляються, принаймні в західному світі точно є розробки щодо виявлення контенту, створеного за допомогою ШІ, але це така собі гонка озброєнь виходить. Тобто, очевидно, що будуть з’являтися нові технології і будуть з’являтися технології, які будуть допомагати якось вичислити, чи він був модифікований чи ні. Для медіа тут єдине, що можна порекомендувати, – що якщо використовується будь-який контент, створений за допомогою ШІ, особливо, перш за все, я би сказав, аудіовізуальний, не в графічному дизайні, він має бути належно маркованний. Тобто, медіа має сказати своєму споживачу, що цей контент згенерований штучним інтелектом. З текстами, напевно, трошки проблематичніше, тому що зараз вже багато медійників використовують і розшифровку, вони правда економлять час, і генерування текстів.
Тетяна Трощинська: Але потім у нас жива людина все це перевіряє, включно з фактчекінгом.
Ігор Розкладай: Власне тут дуже важливо, що це просто інструмент економії часу, але все одно за цим стоїть жива людина. З графікою, з відео – тут уже складніше. Ми навіть видавали спільно з академією, Дойчевелле Академі, ми видавали посібник по закону про медіа, і там всі зображення ШІ генеровані. Це прямо написано, це просто ілюстрації для кращого засвоєння матеріалу.
Тетяна Трощинська: Це не повинно заперечувати документалістику.
Ігор Розкладай: Так. І в цьому насправді треба бути акуратним. Я думаю, що особливо ризикованими сферами може бути будь-що історичне, тому що модифікувати історичні світлини, щоб показати саму улюблену тему фейків, наприклад, ті ж пов’язані з ОУН-УПА. Ми знаємо, що були ці скандали, навіть з використанням реальних зображень, але з неправильним контекстом. Зокрема, дуже знамените зображення прив’язаних мертвих дітей до дерева, яких насправді просто вбила власна мати, яка зійшла з розуму. Але це показувалося як злочини бандерівців. Тобто, це була скандальна історія. Але, на жаль, таке буде, тому що в тому числі конфлікт між Польщею і Україною росія завжди буде використовувати, і історичні всі ці штуки дуже серйозно можуть використовуватися теж для нарощування конфліктології або створення якихось фейків, наприклад, приналежності територій тій чи іншій державі. Тут все, що завгодно. І є, звісно, жартівливі фейки. Буквально вчора бачив рідкісне фото, коли Ленін стоїть на трибуні Мавзолею з написом «Ленін», і виступає. Ми розуміємо, що це, в принципі, жарт. Але це теж ілюстрація, що тема історичних світлин може бути теж достатньо вразливою. Так само і підробка історичних документів. Тому тут, якщо хтось використовує щось, дуже важливо ще й посилатися сигнатурами на ті джерела, чи посилання, чи сигнатури, звідки походить цей документ.