Світ, особливо його інформаційна частина, не стоїть на місці. З’являються нові й нові виклики. У випадку України ситуація ускладнена ще й повномасштабною війною, яка, як ніщо інше, заохочує до винахідливості.
У доінтернетну еру медіагігієна зводилася до кількох простих правил. Був невеликий пул джерел інформації теле- і радіоефір, друкована преса (загальнонаціональна і місцева). Усі вони певною мірою контролювалися (у випадку диктатур суворо) і мали різну репутацію. Медіагігієна 1.0 зобов’язувала вибирати джерела інформації за репутаційним принципом, відсіювати пропаганду, шукати підтвердження в альтернативних джерелах.
Інформація була не настільки оперативною, багато подій і процесів залишалися в тіні. Випадкових або фальшивих експертів у інформаційному полі було в рази менше. Мало хто, за винятком таблоїдів, грішив сенсаційними вигадками, значно рідше друкували не підтверджену інформацію.
Із появою інтернету спочатку все виглядало так само. Інтернет-сторінки медіа дублювали у цифровому форматі аналоговий контент, однак з появою соцмереж, блогерів і стрімерів відбулася революція. Джерел інформації стало у рази більше, час від події до її висвітлення в медіа скоротився до мінімуму (трансляція наживо перестала бути привілеєм телеканалів). З’явилися додаткові цифрові можливості підробки зображень. З’явилося поняття клікбейту. Як наслідок, виникла потреба сформувати правила медіагігієни 2.0.
Згідно з ними, джерела інформації треба перевіряти значно уважніше, слід пам’ятати про можливість фейків, ненадійність інформації від анонімних джерел, інформаційні кампанії за допомогою ботів, велику кількість фальшивих експертів, алгоритмічні бульбашки фільтрів.
На певному етапі алгоритми почали фіксувати інформаційні вподобання та підсовувати споживачам саме таку інформацію, яка буде максимально утримувати їхню увагу (так працює більшість соцмереж і пошуковиків).
Ми перебуваємо на цьому етапі, але зовсім скоро ситуація ще більше ускладниться, бо людство активно працює над новими технологіями.
Штучний інтелект намагаються навчати генерувати зображення, що виглядають як реальні, писати різні тематичні тексти, що справляють враження, буцім їх написала жива людина, вести діалог з людьми і так далі.
Після жахливої трагедії у Дніпрі, коли російська ракета зруйнувала цілий під’їзд, офіційний твіттер-екаунт Верховної ради опублікував зображення сумної дитини зі скуйовдженим волоссям, прапорцем України на рукаві на фоні зруйнованої будівлі з підписом «Дніпро. Біль. Сум. Злість. Візуалізація». Це зображення згенероване штучним інтелектом, однак у соцмережах деякі користувачі сприйняли його за документальне фото і почали поширювати з підписом, на кшталт: «Цей малюк вижив. Він назавжди запам’ятає, хто зруйнував його дім. Дніпро».
У сучасних реаліях доволі легко відрізнити соцмережного бота. Як правило, він не генерує власний контент, у профілі кілька крадених фото, він кидається дослівно тими ж самими фразами, що й інші боти. А тепер уявіть ситуацію. Штучний інтелект генерує різні аватарки та фотографії для профілю бота, регулярно пише йому контент і зафренджує його із сотнею інших екаунтів, теж ботів, але з іншим наповненням, написаним іншими алгоритмами. Таких ботів, за умови справного штучного інтелекту, буде значно важче відрізнити від реальних людей. Вони зможуть імітувати громадську думку з тих чи інших питань, розігрувати запеклі дискусії, ще більше маніпулювати громадською думкою та поляризувати суспільство.
Ідемо далі, беремо діпфейк, відео, змодельоване програмою, а не зняте наживо, і поєднуємо його зі штучним інтелектом, що генерує сюжет і висловлювання. Наприклад, канібальська сцена за участі умовного голови ОДА або педофільський порно-компромат, знятий на умовного депутата. Навіть, якщо з’являться певні інструменти, які допоможуть вирахувати штучність, дуже багато людей із низькими стандартами медіагігієни віритимуть такій інформації з «неспростовними доказами».
Якщо штучний інтелект навчиться генерувати контент, що ідеально лягає під SEO вимоги пошуковиків, то він випадатиме завжди зверху. Таким чином в інформаційному просторі може з’явитися дуже багато не просто маніпулятивної, як зараз, а взагалі нереальної інформації.
Тут явно виникне потреба у нових правилах медіагігієни 3.0, які будуть відповідати новим викликам. На щастя, поки контент, згенерований штучним інтелектом, можна відрізнити від автентичного, але треба готуватися до того моменту, коли усе не буде аж так однозначно. Історія з дніпровською дитиною цьому гарне підтвердження.