Початок кінця об'єктивності
Упродовж останнього десятиліття ми стали свідками поступового розмивання меж між фактом, інтерпретацією і дезінформацією. Але по-справжньому епохальну зміну принесло не просто поширення фейків, а поява технологій, які фундаментально унеможливлюють перевірку джерела сигналу. Раніше можна було довіряти відео, аудіо, візуальному образу. Тепер – ні.
Цей злам має не лише інформаційні, а й онтологічні наслідки: розмивається сам феномен «реального». Коли користувач бачить, що будь-яке відео може бути симуляцією, він не лише втрачає довіру до контенту, він втомлюється перевіряти. Утворюється інформаційна апатія, і саме в цю лакуну заходять нові політичні наративи, які не мають потреби бути правдивими, лише своєчасними.
Ця апатія стає стратегічним ресурсом. Якщо виборець нічому не вірить, його легше радикалізувати, дезорієнтувати, або просто відштовхнути від участі в демократичних процесах. Це і є головна мета: не переконати, а виснажити.
Deepfake як форма інформаційної ентропії
Deepfake – це не просто «підроблене відео». Це алгоритмічна технологія руйнування довіри до візуального досвіду. У своїй сутності вона працює не на тому, що виглядає правдоподібно, а на тому, що робить усе підозрілим. Коли будь-який відеофрагмент може бути згенерований, усі відеофрагменти стають умовними.
Фактично, ми маємо справу з явищем інформаційної ентропії: збільшенням кількості шуму у медіа-просторі до такого рівня, коли вже не важливо, що є правдою – бо споживач інформації не здатен це відрізнити. Така ситуація вигідна тим, хто використовує технології впливу: їм достатньо лише створити ефект можливої фальсифікації. І цього вистачає, щоби розкласти опонента, дискредитувати інституцію, зруйнувати довіру.
Водночас deepfake – це не просто технологія, а платформа дії. Вона використовує масове навчання нейромереж на відкритих базах даних проводячи генерацію в реальному часі та поєднання з системами таргетування, на виході отримуючи автоматизовану дистрибуцію в соціальних мережах.
Це не про монтаж. Це про автоматизовану симуляцію політичної реальності, яка не просто вводить в оману, а перекодовує сам механізм переконання.
Ботоферми як системи впливу нового покоління
Класичне уявлення про бота – це примітивний скрипт, що повторює заздалегідь задані фрази. Але сучасні інформаційні операції здійснюються не через поодинокі облікові записи, а через кіберсоціальні екосистеми, які адаптуються, навчаються й здатні моделювати соціальну динаміку у великих масштабах.
Ці системи мають кілька ключових ознак:
- Вони функціонують у багатьох мовах і культурних контекстах одночасно.
- Вони використовують глибинні моделі ШІ для генерації контенту з урахуванням лексичних, синтаксичних та емоційних маркерів цільової аудиторії.
- Вони аналізують поведінкові патерни користувачів (час реакції, тональність коментарів, типові «залипання») для точного налаштування меседжів.
Ботоферма нового типу – це гібрид між інфраструктурою збору даних, лабораторією впливу і пропагандистською фабрикою, що здатна ініціювати локальні інформаційні кризи, симулювати суспільну думку або підштовхувати до протестів.
Важливо розуміти: головна мета таких систем – не переконати, а сформувати тиск середовища. Якщо ти бачиш п’ять однотипних коментарів під новиною – ти не аналізуєш, ти відчуваєш «загальний настрій». І це сприйняття – вже продукт обробки
Приклади симулякрів в політичній практиці
Історії гучних фейкових кампаній не нові. Але їх структура і вплив стрімко змінюється. Розглянемо три приклади різного ступеня складності:
Brexit (2016) – приклад кампанії низької технічної складності. Фокус – на простих меседжах і масовому охопленні. Ботоферми працювали на посилення емоцій (страх, ностальгія), поширюючи повідомлення про "повернення контролю" і загрози з боку міграції. Штучного інтелекту (майже?) не було, але результат показав, як мінімальні інтервенції можуть спричинити історичні зсуви.
США (2020) – кейс нового рівня. Тут використовувались глибокі підробки (deepfake) із зображенням Джо Байдена у сценах, що викликають сумнів у його ментальній адекватності. Навіть після викриття фейку сам факт його існування грав на користь основного меседжу – "він слабкий". Це ілюструє логіку: факт викриття не обнуляє ефект, а лише розширює охоплення фальсифікації.
Туреччина (2024) – випадок внутрішньополітичної ескалації із використанням deepfake-технологій як форми агресивного компромату. Відео з імітованими заявами опонентів стало частиною офіційних кампаній. Головна відмінність – не прихована, а легалізована симуляція, що діє у відкритому полі й не вимагає виправдань.
Ці приклади демонструють, що ми входимо у фазу, де маніпуляція більше не маскується, а функціонує як звична частина політичного процесу. І найнебезпечніше в тому, що реакція суспільства – вже не обурення, а адаптація.
Когнітивна уразливість і структура довіри
Поширена думка, що аудиторія 45+ є найвразливішою до маніпуляцій, базується не на віці як такому, а на структурі їхньої довіри. Люди, які споживають новини через Viber-групи, Facebook-спільноти або YouTube, перебувають у середовищі, де авторитет передається не інституційно, а інтерперсонально – через знайомих, родичів, сусідів.
Зазвичай це середовище працює за логікою: «не має значення, чи це правда, якщо про це сказав з родичів». І тут фейк стає частиною особистого інформаційного поля, а отже – некритичним. Алгоритмічні системи посилюють це, підсовуючи емоційно заряджений контент, який викликає обурення, тривогу чи обурення – тобто запускає механізми імпульсивного поширення.
Медіаграмотність, як її нині розуміють, тут безсила. Необхідна когнітивна імунізація, яка враховує не лише контент, а й спосіб передачі довіри – і формує нові критерії перевірки «свого». Це – найбільш недооцінений напрям роботи в інформаційній безпеці.
Контрнаступ демократій: слабка відповідь на системну атаку
Попри зростаючу загрозу з боку дезінформаційних технологій, реакція демократичних країн залишається переважно запізнілою та оборонною. Законодавчі ініціативи на кшталт Digital Services Act, інструменти виявлення deepfake-контенту та платформи фактчекінгу хоч і необхідні, проте функціонують у межах реактивної логіки – вони намагаються ліквідувати наслідки, не змінюючи структур, що роблять маніпуляцію ефективною. Натомість справжньою відповіддю має стати не боротьба з кожним окремим фейком, а побудова превентивної інформаційної стійкості. Це передбачає, насамперед, медіаосвіту іншого порядку: не навчання розпізнаванню фейків як інструктаж, а формування навички орієнтуватися в умовах фрагментованої та нестабільної реальності – аналізувати логіку повідомлень, бачити за ними сценарії, відстежувати контекст, а не лише фактичну точність.
До цього слід додати необхідність прозорих протоколів перевірки: користувач має розуміти не лише зміст інформації, а й походження, обставини її появи та маршрут розповсюдження. У такий спосіб вводиться своєрідне маркування, яке не гарантує істину, але знижує рівень хаосу. Нарешті, потрібен зовсім інший підхід до самого поняття правди – не як до категорії «так/ні», а як до градації ймовірностей. У реальному світі ми часто діємо, не маючи повної впевненості – і саме цю навичку потрібно відновити в інформаційному мисленні: жити зі здоровим сумнівом, що не паралізує, а дисциплінує. Без такої когнітивної модернізації демократії залишаються вразливими: бо атака відбувається не на платформи, а на саму здатність суспільства вести діалог у спільній реальності. Без таких змін технологічні засоби залишатимуться запізнілою відповіддю. Бо головна битва точиться не в алгоритмах, а у способі, як ми сприймаємо і оцінюємо реальність.
Андрій Владимирський