Автор: аналітик HWAG/UCMC, Анастасія Ратєєва
Штучний інтелект відкрив нову еру інформаційної взаємодії. Однією з найпомітніших та водночас небезпечних сфер застосування ШІ є діпфейки. Ця технологія не лише забезпечує можливість створення вражаючих цифрових імітацій, але й породжує етичні питання та страхи щодо маніпулювання масовою свідомістю. У світі, де важко розрізнити реальність від вигадки, діпфейки стають інструментом не лише впливу, але й поширення невизначеності та непевності.
У цій статті ми розглянемо, як саме Росія використовує діпфейки та штучний інтелект у своїй пропаганді, вивчаючи методи та можливі наслідки подібних втручань. Також з’ясуємо як віртуальна реальність може впливати на політичні рішення, громадську думку та безпеку в світі, де глибокі фейки приховують загрози для демократичних цінностей.
Діпфейки на всі смаки: технологія в різних сферах культури
Цікаво, що ідею політичного діпфейку в російську масову культуру ввів письменник Віктор Пелевін ще в 1999 році. “Рейган із другого терміну вже анімаційний був” – стверджує герой його роману “Generation П” під час екскурсії на виробництво штучних відео з політичними діячами.
Нині технологія діпфейків вийшла далеко за межі наукової фантастики чи художньої алегорії. Її активно використовують в масовій культурі, зокрема кіноіндустрії. Наприклад, у останньому фільмі легендарної саги “Зоряних воєн” обличчя принцеси Леї було згенеровано за допомогою ШІ, оскільки Керрі Фішер, що виконувала її роль, не дожила до зйомок.
Основною сферою, яка масово продукує діпфейки, була і залишається порнографія. Діпфейк-порно – явище, що націлене та вражає великою мірою виключно жінок. Воно викликає серйозні занепокоєння, оскільки порушує почуття базової безпеки в Інтернеті та піддає загрозі репутацію і психологічне здоровʼя жертв. В 2019 році 96% усіх відео, створених за допомогою ШІ, були порнографічного характеру. Це вказує на необхідність не лише посилення заходів протидії створенню діпфейк-порно, але і розвитку технологій виявлення та відслідковування такого контенту для захисту користувачів в Інтернеті.
“Another body” – документальний фільм про дівчину, що стикнулася з наслідками використання свого обличчя у порно-діпфейку
Технології та інструменти створення діпфейків стають доступнішими та простішими у використанні зокрема завдяки тому, що їхня розробка стала предметом інтересу як великих технологічних компаній, так і індивідуальних розробників. Наприклад, DALL-E, що представлений компанією OpenAI, дозволяє генерувати унікальні зображення на основі текстового опису, набрав величезну популярність серед творців мемів та художників. Інший приклад – Midjourney, який пропонує платну підписку на свої послуги. Користувачі можуть використовувати цей сервіс для генерації високоякісних та реалістичних штучних зображень.
Вже зараз створити діпфейк можна, навіть не виходячи з Instagram чи Facebook. У вересні 2023 року компанія Meta запустили штучний інтелект, інтегрований в соціальні мережі, що їй належать (поки що ця функція доступна лише в США). Окрім того, Meta створили 28 неіснуючих людей з обличчями відомих осіб, з якими можна поспілкуватися в WhatsApp, Messenger, та Instagram, і вони відповідатимуть у відповідності до своїх ролей.
Чому діпфейки становлять небезпеку?
Робота над розвитком технології діпфейку, як вказують науковці Боббі Чесні (Bobby Chesney) та Даніель Цитрон (Danielle Citron), відзначається активним залученням новітніх технологій, наукових кіл та урядових структур.
Потужність цих інструментів не обмежується матеріальними ресурсами, та залежить від рівня доступу до знань та передових методів машинного навчання, таких як генеративно-адверсаріальні мережі (GAN). Основною фактором в цьому контексті є відкритий доступ до знань, який дозволяє навіть непрофесійним користувачам створювати фейки. Саме це явище робить технологію діпфейку масово доступною та такою, що швидко розповсюджується та розвивається.
Проте для того, щоб мати реальний вплив, цього недостатньо, і на допомогу приходять когнітивні упередження. Дослідження свідчать, що фейкові історії та містифікації поширюються у декілька разів швидше, ніж правдиві інформаційні повідомлення, роблячи їх надзвичайно ефективними знаряддями впливу.
Під час передвиборної кампанії 2016 року в США було проведене дослідження, яке виявило цікаву особливість – особи, що споживають фейкові новини та ті, хто читає статті про перевірку фактів та спростування фейків – здебільшого різні особи. Це свідчить про те, що якісному діпфейку для того, щоб в нього повірили, потрібно лише потрапити в потрібну цільову аудиторію.
Окрім того, дослідження показують, що люди схильні сприймати та поширювати інформацію, яка відповідає їхнім власним переконанням, створюючи фільтровані інформаційні “бульбашки“. Застосування технології діпфейку в умовах когнітивних упереджень може призвести до ситуації, коли люди легко приймають на віру неправдиву інформацію, яка відповідає їхнім переконанням, і відкидають правдиву, яка суперечить їхнім стереотипам.
В таких умовах вміле використання ШІ може суттєво підривати довіру до інформації, ускладнювати розрізнення між фактом і вигадкою, а також збільшувати загрозу соціально-політичного розколу в суспільстві. Отже, з розвитком технології діпфейку постає необхідність в розумінні та вирішенні її потенційних негативних наслідків для сучасного інформаційного простору.
ШІ в арсеналі Кремля
Москва намагається надолужити відставання від світових лідерів в сфері розвитку штучного інтелекту. Володимир Путін неодноразово позитивно відгукувався про ШІ (щоправда, в даному випадку навряд чи російський лідер, який не користується інтернетом та мобільним телефоном, усвідомлює про що говорить). В РФ проводяться дослідження, спрямовані на створення діпфейків та протидію їм. Підтримується розвиток саме політичних діпфейків: наприклад, на одній з виставок технологій Путіну показали досягнення в сфері ШІ на прикладі діпфейку з Олафом Шольцем.
В червні 2023 року на розгляді Державної Думи РФ опинився законопроект про кримінальну відповідальність за діпфейки, проте він не був прийнятий. Складається враження, що Москва навмисне не висловлюється однозначно з приводу діпфейків, щоб залишити власній пропаганді лазівку для маніпуляцій.
Наприклад, до використання штучного інтелекту вдається російська “Ліберально-демократична партія Росії” (ЛДПР), що таким чином намагається втриматись на плаву після смерті її харизматичного лідера. Для цього функціонує Telegram-канал “НейроЖириновский”, що відповідає на питання виборців, генеруючи аудіофайли голосом покійного Володимира Жириновського в притаманній йому одіозній манері та з відповідним наповненням. Окрім збереження позицій партії, діпфейк виконує ще й функцію рупора пропаганди, адже продовжує продукувати повідомлення відповідно до риторики Кремля.
Діпфейки як інструмент інформаційної війни
РФ використовує діпфейки як зброю для інформаційних операцій. Такі відео реалістичні, наповнені шкідливою для опонентів Москви риторикою та спрямовані на вплив на масову свідомість та переконання. До “серйозних” діпфейків можна віднести, зокрема, нещодавню провокацію з “за участі” Головнокомандувача ЗСУ Валерія Залужного.
Смерть Геннадія Частякова, що був його помічником, спричинила хвилю повідомлень від російських пропагандистів на тему “протистояння” Зеленського та Залужного. Цей наратив є нині одним із центральних у риториці Кремля: таким чином пропаганда намагається створити міф про розкол серед українських політичних еліт. На підтвердження цього було створено та поширено діпфейк із зображенням Залужного. Текст відео насичений класичними наративами пропаганди РФ:
“У мене є точна інформація, що вчора Зеленський ліквідував мого помічника. Він збирається ліквідувати і мене також, а потім здати країну. Зеленський – це ворог нашої держави. Через нього ми повністю провалили контрнаступ, втративши півмільйона кращих синів нації”.
У відео лунає заклик до суспільства вийти на протести, а до військових – припинити підкорятися наказам та вирушити в Київ, здійснювати військовий переворот. Зеленського у відео називають “зрадником”, “брехуном”, стверджують, що всі українські ЗМІ належать йому.
Кадр із фейкового відео із Залужним
У пропагандистських Telegram-каналах це відео спочатку поширили як справжнє, а надалі – “визнали” діпфейком. Російський воєнкор Олексій Живов пише, що відео “було явно роботою якихось волонтерів”, проте “наробило шуму в українському сегменті соцмереж” (це судження не відповідає дійсності, хоча діпфейк і намагались поширити боти в коментарях Telegram).
Також спрямованим на створення відверто небезпечного уявлення про незручних для російського режиму політиків є діпфейк з використанням обличчя Майї Санду.
Нещодавно в мережі поширили відео, де Майї Санду в онлайн-форматі англійською ставлять питання про можливу мобілізацію в Молдові. Санду нібито відповідає на запитання ствердно, підтверджуючи, що йде робота над зміцненням оборонного сектору, що фахівці проходять спільне навчання з румунськими військовими, а також нібито говорить про можливе вторгнення російської армії до Одеси та готовність прийняти біженців.
В Russia Today заявили, нібито під виглядом українського премʼєр-міністра Шмигаля лідерці Молдови ставили питання пранкери. Санду “розповіла”, що США допомагають уряду Молдови боротися з опозицією, а також “оголосила”, що готова віддати Україні село Джурджулешти “в користування на кілька років”.
Інтелект штучний, сміх – реальний
Також ШІ використовується Кремлем для створення фейків-мемів для висміювання (подекуди шляхом жорстокої іронії) певних політичних фігур та їх рішень. Мем є важливою складовою російської пропаганди, адже є ефективним як одиниця інформації через свої емоційність та контекстуальність. Діпфейки можуть використовуватися як карикатури нового зразка – щоб створювати сенси через іронію. Більше про використання гумору в дезінформації читайте в статті “Дуже чорний гумор: меми як інструмент російської пропаганди”.
Прикладом такого діпфейку є рекламне відео Russia Today, опубліковане у 2020 році, саме тоді, коли RT висвітлював президентські вибори у США. На відео зображений Дональд Трамп, що ходить по Москві та розказує про свою співпрацю з Кремлем.
Іншим прикладом висміювання політичних опонентів за допомогою штучного інтелекту є відео, де фігури політичних лідерів Європи та США вирішують, які ще санкції накласти на РФ. У ролику Джо Байден бʼється головою об стіну, намагаючись щось придумати, Олаф Шольц користується ChatGPT, а Руші Сунак крутить колесо, аби визначити, що ще з російського заборонити.
Окрім простого висміювання, роспроп використовує глузливі відео та визнання якихось відео діпфейками, щоб показати своєму населенню та політичним опонентам, що вони мають новітні технології та вміють ними користуватися. Москва пишається ефективністю своєї пропаганди, та неодноразово намагається перебільшити її значення.
Так, Сімоньян на своєму каналі цитує видання The Daily Beast: “’Можливості RT з використанням технології ‘діпфейк’ можуть здивувати багатьох”. RT, відслідковуючи реакцію на відео про нові санкції, пише, що “Москва наносить удар кувалдою по межах між реальністю та вигадкою”. Редакція висвітлює кожну згадку свого відео, починаючи від того, що йому присвячують статті, до того, що Міністерство національної безпеки США згадали його в звіт з оцінки внутрішніх загроз.
Вже згаданий воєнкор Живов закликає використовувати діпфейки як нову психологічну зброю: “можна використовувати кожен інфопривід в українському сегменті та засипати їх діпфейками з будь-якого приводу. Любов українських політиків до надмірної публічності – це їхня слабка сторона. Яку можна активно використовувати для введення противника в оману та деморалізацію”. Окрім того, Живов використовує класичну для роспропаганди тактику віддзеркалення: “Американці добре розуміють, яку силу та потенціал мають діпфейки. Тому ще на початку СВО вони оцифрували Зеленського та весь Квартал 95 (комедійне шоу, у якому брав участь Зеленський до політичної карʼєри – примітка)”.
Штучний інтелект та його продукти вже впроваджуються у майже всі сфери життя людей в Інтернеті – від масової культури до політики. Діпфеки – всепроникні та вседоступні, і можуть стати ефективною зброєю як проти звичайної людини, так і проти топ-політика. Когнітивні упередження, що характерні для більшості людей, поглиблюють вплив реалістичного фейкового контенту на переконання цілих суспільств. У гібридній війні проти України РФ намагається зіграти на цьому, створюючи та інформаційно обслуговуючи діпфейки з “участю” політичних ворогів Кремля.
Для Москви діпфейки є інструментом поширення дезінформації. Зокрема, вони мають на меті підкріплення вже популярних серед населення наративів Кремля та демонстрацію своєї здатності використовувати новітні технології. З іншого боку, РФ використовує ШІ задля репутаційних пасажів в сторону своїх опонентів шляхом їх висміювання. Шляхи боротьби з такою загрозою, як політичний діпфейк, повинні включати як розвиток технологій з розпізнавання штучного контенту, так і роботу над підвищенням критичного мислення. Оскільки протидія через спростування може бути лише частково успішною – для цілковитого успіху необхідно, аби у фейк із самого початку не повірили.