Deepfake, боты и демократический хаос: когда правда становится опциональной

Deepfake, боты и демократический хаос: когда правда становится опциональной фото

Начало конца объективности

В последнее десятилетие мы стали свидетелями постепенного размывания границ между фактом, интерпретацией и дезинформацией. Но по-настоящему эпохальное изменение принесло не просто распространение фейков, а появление технологий, которые фундаментально делают невозможным проверку источника сигнала. Раньше можно было доверять видео, аудио, визуальному образу. Теперь – нет.

Этот излом имеет не только информационные, но и онтологические последствия: размывается сам феномен «реального». Когда пользователь видит, что любое видео может быть симуляцией, он не только теряет доверие к контенту, он устает проверять. Образуется информационная апатия, и именно в эту лакуну входят новые политические нарративы, не нуждающиеся в правдивости, только своевременные.

Эта апатия становится стратегическим ресурсом. Если избиратель ничему не верит, его легче радикализовать, дезориентировать или просто оттолкнуть от участия в демократических процессах. Это и есть главная цель: не убедить, а истощить.

Deepfake как форма информационной энтропии

Deepfake – это не просто поддельное видео. Это алгоритмическая технология разрушения доверия к визуальному опыту. В своей сущности, она работает не на том, что выглядит правдоподобно, а на том, что делает все подозрительным. Когда видеофрагмент может быть сгенерирован, все видеофрагменты становятся условными.

Фактически мы имеем дело с явлением информационной энтропии: увеличением количества шума в медиа-пространстве до такого уровня, когда уже не важно, что является правдой – потому что потребитель информации не способен это отличить. Такая ситуация выгодна тем, кто использует технологии воздействия: им достаточно создать эффект возможной фальсификации. И этого хватает, чтобы разложить оппонента, дискредитировать институт, разрушить доверие.

В то же время, deepfake – это не просто технология, а платформа действия. Она использует массовое обучение нейросетей на открытых базах данных, проводя генерацию в реальном времени и сочетание с системами таргетирования, на выходе получая автоматизированную дистрибуцию в социальных сетях.

Это не о монтаже. Это об автоматизированной симуляции политической реальности, которая не просто вводит в заблуждение, а перекодирует сам механизм убеждения.

Ботофермы как системы влияния нового поколения

Классическое представление о ботах – это примитивный скрипт, повторяющий заранее заданные фразы. Но современные информационные операции осуществляются не через единичные учетные записи, а через адаптируемые, обучающиеся и способные моделировать социальную динамику в больших масштабах через киберсоциальные экосистемы.

Эти системы имеют несколько ключевых признаков:

Ботоферма нового типа – это гибрид между инфраструктурой сбора данных, лабораторией влияния и пропагандистской фабрикой, способной инициировать локальные информационные кризисы, симулировать общественное мнение или подталкивать к протестам.

Важно понимать: главная цель таких систем не убедить, а сформировать давление среды. Если ты видишь пять однотипных комментариев под новостью – ты не анализируешь, чувствуешь «общее настроение». И это восприятие – уже продукт обработки

Примеры симулякров в политической практике

Истории громких фейковых кампаний не новые. Но их структура и влияние быстро меняется. Рассмотрим три примера разной степени сложности:

Brexit (2016) – пример кампании низкой технической сложности. Фокус – на простых месседжах и массовом охвате. Ботофермы работали на усиление эмоций (страх, ностальгия), распространяя сообщения о "возвращении контроля" и угрозах со стороны миграции. Искусственного интеллекта (почти?) не было, но результат показал, как минимальные интервенции могут повлечь за собой исторические оползни.

США (2020) – кейс нового уровня. Здесь использовались глубокие подделки (deepfake) с изображением Джо Байдена в сценах, вызывающих сомнение в его ментальной адекватности. Даже после разоблачения фейка сам факт его существования играл в пользу основного месседжа – "он слаб". Это иллюстрирует логику: факт разоблачения не обнуляет эффект, а лишь расширяет охват фальсификации.

Турция (2024) – случай внутриполитической эскалации с использованием deepfake-технологий как формы агрессивного компромата. Видео с имитированными заявлениями оппонентов стало частью официальных кампаний. Главное отличие – не скрытая, а легализованная симуляция, действующая в открытом поле и не требующая оправданий.

Эти примеры показывают, что мы входим в фазу, где манипуляция больше не маскируется, а функционирует как обычная часть политического процесса. И самое опасное в том, что реакция общества уже не возмущение, а адаптация.

Когнитивная уязвимость и структура доверия

Распространено мнение, что аудитория 45+ наиболее уязвима к манипуляциям, базируется не на возрасте как таковом, а на структуре их доверия. Люди, которые потребляют новости через Viber-группы, Facebook-сообщества или YouTube, находятся в среде, где авторитет передается не институционально, а интерперсонально через знакомых, родственников, соседей.

Обычно эта среда работает по логике: «не имеет значения, правда ли это, если об этом сказал из родственников». И здесь фейк становится частью личного информационного поля, а значит – некритическим. Алгоритмические системы усиливают это, подсовывая эмоционально заряженный контент, вызывающий возмущение, тревогу или возмущение – то есть запускает механизмы импульсивного распространения.

Медиаграмотность, как ее понимают, здесь бессильна. Необходима когнитивная иммунизация, которая учитывает не только контент, но и способ передачи доверия и формирует новые критерии проверки «своего». Это наиболее недооцененное направление работы в информационной безопасности.

Контрнаступление демократий: слабый ответ на системную атаку

Несмотря на растущую угрозу дезинформационных технологий, реакция демократических стран остается преимущественно запоздалой и оборонительной. Законодательные инициативы типа Digital Services Act, инструменты обнаружения deepfake-контента и платформы фактчекинга хотя и необходимы, однако функционируют в рамках реактивной логики – они пытаются ликвидировать последствия, не меняя структур, которые делают манипуляцию эффективной. Настоящим ответом должна стать не борьба с каждым отдельным фейком, а построение превентивной информационной устойчивости. Это предполагает прежде всего медиаобразование другого порядка: не обучение распознаванию фейков как инструктаж, а формирование навыка ориентироваться в условиях фрагментированной и нестабильной реальности – анализировать логику сообщений, видеть за ними сценарии, отслеживать контекст, а не только фактическую точность.

К этому следует добавить необходимость прозрачных протоколов проверки: пользователь должен понимать не только содержание информации, но происхождение, обстоятельства ее появления и маршрут распространения. Таким образом, вводится своеобразная маркировка, которая не гарантирует истину, но снижает уровень хаоса. Наконец, нужен совсем другой подход к самому понятию правды – не как к категории «да/нет», а как к градации вероятностей. В реальном мире мы часто действуем, не имея полной уверенности – и именно этот навык нужно восстановить в информационном мышлении: жить со здоровым сомнением, которое не парализует, а дисциплинирует. Без такой когнитивной модернизации демократии остаются уязвимыми: атака происходит не на платформы, а на саму способность общества вести диалог в общей реальности. Без таких изменений технологические средства будут оставаться запоздалым ответом. Ибо главная битва идет не в алгоритмах, а в способе, как мы воспринимаем и оцениваем реальность.

Андрей Владимирский

 

Читать все новости