Сергей Пименов Про

Новые протоколы реальности: что меняется, когда тексты, фото и видео перестают быть доказательством

Ещё недавно фотография, видеозапись или документ служили почти неоспоримым «пруфом» произошедшего. Фраза «лучше один раз увидеть, чем сто раз услышать» отражала прежний протокол доверия: медиа-контент воспринимался как доказательство. Однако с появлением генеративного ИИ — когда тексты, изображения и даже голоса могут быть синтезированы компьютером — «увидеть» больше не означает «поверить». Мы вступаем в эпоху, когда доверять приходится не самому контенту, а его проверяемости. На наших глазах складываются новые стандарты и инфраструктуры верификации, а в обществе формируется культура скепсиса по отношению к любым непроверенным данным.

Когда медиа были доказательством — и почему всё рушится

Ещё в конце XX века фото- и видеосъёмка считались объективной фиксацией реальности. Суды, СМИ и общество доверяли снимкам и записям: камера «не врёт». Письменный документ с подписью или аудиозапись голоса тоже имели вес доказательства. Но этот протокол доверия к медиа стремительно разрушается. Цифровой монтаж сначала усложнил жизнь — в эпоху Photoshop мы узнали, что фото можно отредактировать. Теперь же генеративные нейросети выводят это на новый уровень: они сами способны создавать правдоподобные тексты, изображения и видео, которые никогда не существовали в реальности.
Дипфейки (deepfakes) наглядно демонстрируют эту проблему. Специальные алгоритмы могут заставить человека на видео говорить или делать то, чего он никогда не делал, — с поразительной реалистичностью.
Как метко отметил исследователь Джон Вильясеньор, реалистичные дипфейки эксплуатируют наше врождённое доверие к тому, что мы видим собственными глазами, «превращая вымысел в кажущийся факт ». Одновременно знание о существовании таких фальшивок подтачивает доверие и к подлинным записям - правда становится неуловимой, ведь мы больше не уверены, что реально, а что нет. Иначе говоря, любое медиа теперь подозрительно. Фото знаменитости в необычном месте? Возможно, это ИИ-сгенерированный фейк (вспомним вирусное изображение Папы Римского в модном пуховике, которое обмануло тысячи пользователей). Резонансное видео с политиком? Легко может оказаться дипфейком. Письмо от «гендиректора»? Его мог написать ChatGPT. В результате мы сталкиваемся с кризисом доверия: если раньше по умолчанию верили визуальным и текстовым свидетельствам, то теперь по умолчанию приходится сомневаться.

Подписи, метки и провенанс: технологии проверки подлинности

Провенанс (от англ. provenance — происхождение) — это подтверждённая история происхождения и изменений цифрового контента, включающая информацию о том, кто создал файл, когда, на каком устройстве и какие правки в него вносились. В контексте верификации медиа провенанс реализуется через криптографические подписи и метаданные, которые позволяют проверить подлинность и отследить все модификации изображения, видео или документа.
Разрушение старых механизмов доверия побудило появление новых технических решений, призванных вернуть уверенность в контенте. Крупнейшие технологические компании, медиахолдинги и даже государства сейчас работают над инфраструктурой верификации — своего рода «протоколами реальности», где важна не сама картинка или текст, а их подтверждённое происхождение.
Цифровые подписи и провенанс. Один из подходов - встроить в медиафайл несмываемую метку о том, кто и когда его создал и как изменял. Например, в 2019 году Adobe инициировала проект Content Authenticity Initiative, позже объединённый с коалицией C2PA (Coalition for Content Provenance and Authenticity), чтобы разработать открытый стандарт подтверждения подлинности. Результатом стала технология Content Credentials - своего рода «паспорт» для фото или видео. При экспорте изображения из фоторедактора или при съёмке камерой к файлу прикрепляется криптографическая подпись и подробный манифест с данными: кто автор, откуда файл, какие правки делались. Любое изменение (обрезка, коррекция цвета и т.п.) записывается в этом манифесте. Проверяющий может затем открыть сведения и убедиться, что, скажем, незаметному монтажу — а если подвергался, то какие изменения были внесены. Поскольку подпись основана на криптографии с открытым ключом, любое постороннее вмешательство в файл делает подделку заметной.
Внедрением такой системы уже занялись сотни участников по всему миру. Более 500 компаний — от производителей камер до новостных агентств — поддерживают экосистему Content Credentials, стремясь сделать проверяемый контент новым стандартом. Широкая коалиция — Adobe, Microsoft, BBC, Nikon, The New York Times и многие другие — сигнализирует, что индустрия медиа едина во мнении: доверие к контенту критически важно в эпоху ИИ.
Водяные знаки для ИИ-контента. Другой подход - отмечать синтезированный (генеративный) контент специальными метками. Например, правительства обсуждают обязательную маркировку материалов, созданных ИИ. В США выпущен указ, поручающий разработать стандарты водяных знаков для ИИ-изображений, аудио и видео, чтобы получатели сразу видели: это сгенерировано машиной. Идея в том, что каждая нейросеть будет незаметно «помечать» свои творения - будь то текст или картинка - определённым скрытым кодом. Тогда детектор сможет по этому коду узнать источник. Однако такая мера работает только если все добросовестные разработчики будут соблюдать стандарт, а злоумышленники не научатся этот знак убирать или имитировать. Это скорее вспомогательный* уровень защиты, и он тоже требует массового принятия.
Реестр оригиналов. Похожая мысль — зарегистрировать у источника подлинник контента. К примеру, камера при съёмке могла бы сразу отправлять хеш-fingerprint снимка в блокчейн или в базу данных. Если возникли сомнения, всегда можно сверить кадр с оригинальным отпечатком: сходится — значит не изменён. Такие решения предлагают компании в сфере фотоаутентификации; некоторые модели профессиональных камер уже экспериментально поддерживают подписывание кадров на уровне железа.
Все эти меры — подписи, метаданные о провенансе, водяные знаки — формируют новый уровень доверия: доверие к источнику, а не к самому изображению или ролику.
Пример из практики: после побега из тюрьмы на Гаити сети заполонили драматичные видео перестрелок. BBC, являясь одним из ранних адептов Content Credentials, проверила одно вирусное видео с места событий. Выяснилось: картинка реальная, а вот наложенный звук стрельбы - чужеродный фейк. Журналисты BBC прикрепили к видео content credential (верифицированную подпись) с пометкой, что визуальный ряд подлинный, а звук добавлен и вводит в заблуждение. Каждый, кто позже просматривал это видео, видел метку BBC и понимал, а части доверенные, а какие нет. Таким образом, фактчек превратился из кулуарной экспертизы в публичный ярлык на самом контенте - зритель сразу получает информацию о достоверности источника.
Ограничения технологий. Технические решения внушают надежду, но у них есть и ограничения.
Во-первых, ни один алгоритм распознавания дипфейков не даёт 100% гарантии. Автоматические детекторы постоянно разрабатываются (ИИ противостоит ИИ), однако эксперты признают: выявление подделок - гонка вооружений, где фальсификаторы неизбежно придумывают новые уловки. Лучшие системы определения дипфейков всё равно могут отставать от самых продвинутых методов создания фейков. Например, Facebook проводил в 2020 году конкурс на алгоритм поиска дипфейков - и даже победитель различал фальшивки лишь примерно в 65% случаев. Кроме того, детектор бесполезен, если его не применяют* — а в открытом интернете далеко не каждое видео проходит проверку.
Во-вторых, системы провенанса работают только при массовом внедрении. Если 90% честных создателей контента начнут подписывать свои материалы, а площадки - помечать непроверенные., тогда отсутствие метки сразу вызовет подозрение. Но пока это не так. Мы в точке «курицы и яйца»: издатели спрашивают, зачем внедрять проверки, если аудитория их не требует, а потребители не ищут метки, потому что их мало где встретишь. К тому же возникает вопрос доверия к самому эмитенту* метки: кто именно подтвердил подлинность, можно ли верить этому источнику? Злоумышленник тоже может подписать фейк своей «подписью» — если аудитория не знакома с этим издателем, метка мало что даст.
Тем не менее, работа над стандартами продолжается. Контент как на ладони — таков идеал новой системы. Если раньше мы смотрели на фото и пытались сами судить, правда или монтаж, то в будущем предполагается, что рядом с каждым изображением в интернете появится значок проверки, по нажатию на который можно увидеть происхождение файла. Инициаторы Content Credentials даже предлагают сделать специальный значок доверия таким же привычным, как значок © авторского права, чтобы через несколько лет и создатели, и зрители автоматически ожидали увидеть возле картинки индикатор подлинности. Конечно, достичь этого непросто — нужен консенсус индустрии и усилия по стандартизации. Но тенденция ясна: вместо слепого доверия содержимому мы переходим к проверке «цифровой печати» контента.

Репутационная экономика под угрозой: цена фейков и «дивиденд лжеца»

Эрозия доверия в медиа-пространстве тянет за собой эффекты на уровне репутации и общественных отношений. Когда любое фото- или видеодоказательство можно сфальсифицировать, возрастает ценность репутационного капитала и новых механизмов его защиты — и одновременно растёт цена ошибки или обмана.
Во-первых, появляется возможность наносить колоссальный ущерб репутации с помощью фейков. То, что раньше послужило бы решающим доказательством вины или позора, теперь может быть изготовлено «на заказ». Например, недоброжелатели способны сделать дипфейк-видео с публичной персоной в компрометирующей ситуации и запустить его в сеть. В глазах обывателей это неотличимо от реальности, а опровержениям могут уже не поверить. Известны случаи, когда люди (особенно женщины) страдали от порнографических дипфейков с их изображением — карьерные и психологические последствия такого «цифрового насилия» очень серьёзны. Фейки могут бить и по компаниям: достаточно смонтировать ролик с «заявлением» CEO о банкротстве или скандале, чтобы акции компании пошатнулись.
В мае 2023 года в Twitter распространилось поддельное фото взрыва у Пентагона - его сделали нейросетью. Новость подхватили даже крупные аккаунты, что вызвало кратковременную панику и просадку фондового рынка (индексы мгновенно ушли вниз), пока официальные лица не опровергли «взрыв». Одно фейковое изображение за считанные минуты задела целую экономику.
Во-вторых, с другой стороны возникает феномен, который исследователи называют «дивиденд лжеца» (liar's dividend). Это обратный удар по репутационной системе: настоящий проступок или компромат теперь легче отрицать, называя его подделкой. Проще говоря, мошенники и правонарушители получают фору - всегда можно заявить: «доказательство недействительно, на видео не я, это дипфейк». Если раньше видеозапись преступления практически гарантировала изобличение, то сегодня обвиняемый может посеять достаточно сомнений одним словом «фейк». Так лжецы пожинают дивиденды: дипфейки позволяют им уйти от ответственности. Возникает опасная ситуация двойного недоверия, когда общество не может до конца верить даже реальным свидетельствам, но и автоматически отвергать их тоже рискованно. Исследователи называют это «двойной тупик: ни полная вера, ни полное неверие не могут быть обоснованы». В результате страдает сам фундамент общественной истины.
Стоимость ошибки в таком мире резко возросла. Ложное обвинение, подкреплённое фабрикованным медиа, может разрушить чью-то жизнь, бизнес или карьеру - и очень трудно будет реабилитироваться, ведь всегда останется тень сомнения. Одновременно подлинное обвинение (настоящее разоблачающее видео) тоже может «не сработать» по назначению: публика запутается, а виновник избежать наказания, сославшись на дипфейк. Таким образом, доверие и репутация превращаются в хрупкий ресурс. Возникает новая экономика доверия, где ценятся верифицируемые факты и безупречная репутация источника, а непроверенная информация быстро обесценивается.
Организации и общественные институты уже бьют тревогу. В докладах отмечается, что дипфейки угрожают подорвать базовые механизмы доверия в самых разных сферах — от медицины (фальшивые медицинские заключения) до финансов (аферисты, выдающие себя за директоров компаний). Один из сценариев — фейковое сообщение от имени топ-менеджера может обвалить биржевой курс, что ставит под удар экономику доверия на рынках. Страховые компании опасаются, что им начнут предъявлять сфабрикованные видео и фото в качестве доказательств вымышленных страховых случаев. Цена таких фальсификаций измеряется миллионами.
Наконец, нельзя не учитывать и человеческий фактор скепсиса. Постоянное ощущение, что тебя могут обмануть фейком, порождает атмосферу сомнения и теорий заговора. Где подделка может быть любой скандал, там легко распространится и убеждение, что «ничему верить нельзя». Это питательная среда для конспирологий и утраты доверия к институциям в целом. Если ничего не изменить, мы рискуем прийти к цинизму и информационному параличу: каждый будет верить только тому, во что хочется верить, отвергая все неудобные факты как «нарисованные».

«Доверяй, но проверяй»: как верификация станет новой нормой

В ответ на описанные угрозы складывается новая культура проверки. Там, где раньше было достаточно одного контента, теперь будут требоваться подтверждения и факты о его происхождении. И для профессионалов, и для обычных людей навыки верификации стремительно становятся частью базовой грамотности.
Новые привычки у людей. Рядовые пользователи начинают относиться к медиа с бóльшим сомнением. Появляется правило: если новость шокирует или вызывает сильные эмоции — проверь её. Уже сейчас в обиход входят простые методы: например, делать реверс-поиск картинки (через Google Images или TinEye) при виде подозрительного фото, искать оригинальный источник видео, сопоставлять даты, геолокации, детали на изображении. Популяризируются советы, как распознать подделку: обращать внимание на нереалистичные детали (например, искажённые пальцы или тени на ИИ-сгенерированных фото), проверять наличие независимых свидетельств события (если нигде больше не пишут о «взрыве возле Пентагона», скорее всего, это фейк). В образовательных программах по медиаграмотности уже учат школьников и студентов не доверять контенту слепо, а искать признаки манипуляций и проверять источники.
Кроме того, сами пользователи вырабатывают социальные практики против новых обманов. Простой пример: мошенники научились клонировать голос близкого человека по короткому образцу — и затем звонят от его имени с просьбой о деньгах («Мама, я попал в беду, вышли денег»). Чтобы обезопаситься, семьи придумывают кодовые фразы: вы договариваетесь с родственником, что при настоящей критической ситуации он упомянет условное слово, известное только вам. Если же звонящий его не знает — значит, перед вами подделка. Другая тактика — «докажи, что ты real-time» для видеозвонков: предложить собеседнику по видеосвязи сделать странное резкое движение (например, быстро повернуть голову или показать определённый жест). Настоящий человек выполнит просьбу, а вот текущие технологии дипфейка часто дают сбой при резких непредусмотренных движениях. Такие нехитрые приёмы могут войти в обиход, став обычной предосторожностью наподобие проверки документов. По сути, люди учатся активно проверять реальность вокруг, а не пассивно доверять увиденному.
Верификация в организациях. Для компаний, медиа и госструктур новая норма - проверять источники. до того, как действовать на её основе. Новостные редакции уже создают отделы фактчекинга и верификации пользовательского контента. Журналисты внедряют в рабочий процесс инструменты вроде InVID (для анализа видео) или Project Origin, позволяющие быстро отсеивать фальшивки. **Каждый важный материал теперь требует подтверждения из нескольких независимых источников.**В корпоративной сфере служба безопасности должна проверять подозрительные приказы и письма: например, получив голосовое распоряжение перевести деньги, обязательно перезвонить по официальному номеру руководителя. В судах эксперты начинают анализировать медиа-доказательства на предмет возможной генерации ИИ, и вероятно, вскоре судебные протоколы изменятся, требуя от сторон предоставлять метаданные аутентичности для фото или видео «улик».
Организации также начинают маркировать собственный контент, чтобы аудитория могла проверить его происхождение. Пресс-службы могут прикреплять цифровые подписи к официальным заявлениям, чтобы в сети можно было отличить их от фейковых вбросов. Крупные медиа договорились помечать фотографии и видео с помощью Content Credentials — ожидается, что вскоре значок подлинности рядом с изображением станет привычным делом. Социальные платформы внедряют политику борьбы с синтетическими медиа: например, Twitter, Facebook и другие помечают контент, распознанный как искусственно изменённый, ярлыком «манипулированное медиа». Возможно, появятся и системы приоритезации правды — например, поисковики и новостные ленты будут повышать в выдаче проверенные материалы и занижать непроверенные.
Новая скептическая культура. В итоге формируется своего рода культура здорового скептицизма. Она не означает тотального недоверия ко всему, но предполагает постоянное наличие верифицирующего слоя в нашем восприятии информации. Если XX век воспитал культ визуального свидетельства («фото или не было»), то XXI век, видимо, привьёт нам рефлекс: «нет проверки - нет доверия». Мы начнём автоматически искать подтверждающие маркеры - аналогично тому, как сейчас уже смотрим на замочек SSL в браузере или на галочку верификации аккаунта. Возможно, через несколько лет отсутствие значка подлинности под фото новости будет настораживать так же, чем сейчас сайт без HTTPS. Конечно, абсолютно всё проверить невозможно, и вряд ли каждый пользователь станет экспертом-криминалистом. Но базовый уровень критического мышления и умения пользоваться инструментами проверки станет массовым.

Практическая рефлексия: как жить и работать в постдоказательственную эпоху

Продюсерам, предпринимателям и медиаспециалистам уже сейчас стоит адаптироваться к новым реалиям. Вот несколько рекомендаций, которые вы можете учесть в своей практике:
  • Внедряйте проверку контента в процессы. Любой пользовательский контент, поступающий в ваш проект (фото очевидцев, скриншоты переписок и пр.), подвергайте проверке: ищите оригинальный источник, запрашивайте исходники в максимальном качестве, анализируйте метаданные. Заведение простого чек-листа верификации от публикации убережёт от распространения фейка.
  • Используйте инструменты аутентификации. Ознакомьтесь с технологиями Content Credentials и аналогичными — возможно, уже сейчас ваши инструменты создания медиа позволяют встраивать метки провенанса. Если вы выпускаете оригинальный фото- или видеоконтент, подумайте о его цифровой подписи. Это повысит доверие аудитории и защитит ваш материал от подделок. Также проверяйте наличие таких меток у входящего контента — например, фото с пометкой подлинности от уважаемого агентства заслуживает большего доверия.
  • Обучайте команду и аудиторию. Повышайте осведомлённость сотрудников о рисках дипфейков. Проведите тренинги: покажите примеры подделок, научите базовым приёмам разоблачения (поиск визуальных артефактов, обратный поиск изображений и т.д.). Разработайте внутри компании протокол проверки неожиданных сообщений (особенно финансовых запросов) - например, правило всегда подтверждать голосом по известному номеру или личной встречей прежде, чем выполнять электронные указания. Коммуницируйте с вашей аудиторией: объясняйте, как вы проверяете информацию. призывайте читателей тоже быть бдительными.
  • Готовьтесь к кризисам репутации. Продумайте план действий на случай, если про вас или вашу организацию вбросят фейк. Кто будет официально опровергать, на каких площадках? Как быстро сможете доказать, что видео — подделка?Возможно, стоит завести каналы экстренной связи с аудиторией, где заранее подтверждённая информация от вас (например, подписанный канал в мессенджере) будет источником правды в случае информационной атаки.
  • Следите за стандартами. Политика в сфере ИИ-фейков развивается стремительно. Появляются новые законы (например, об обязательной маркировке синтетического контента), индустриальные стандарты (C2PA и др.), сервисы для проверки медиа. Чтобы не остаться позади, мониторьте новости в этой области. Участие в профессиональных сообществах, посвящённых информационной безопасности и медиаграмотности, поможет держать руку на пульсе. Возможно, в ближайшем будущем сертификация достоверности контента станет таким же обычным требованием, как кибербезопасность.
Привыкайте мыслить категориями «доверяй, но проверяй». Новая реальность усложняет коммуникацию, зато мотивирует нас всех стать более продуманными и ответственными потребителями и создателями информации.

Вывод

Генеративные медиа радикально меняют социальный протокол доказательства. Когда тексты, фото и видео больше не гарантируют правдивости, доверие смещается на уровень систем подтверждения подлинности. Мы видим зарождение целой инфраструктуры для борьбы с фейками: от криптографических подписей в файлах до законодательных инициатив и образовательных программ. Конечно, ни одна технология не является волшебной пилюлей — во многом эта гонка будет продолжаться, и у обманщиков найдутся новые трюки. Однако комбинация технических средств и культурной адаптации способна заложить новый фундамент доверия.
Главное изменение — культура скептицизма и проверки. Общество учится тому, что любое медиа — лишь повод для расследования, а не истина в последней инстанции. Это непривычно и даже неудобно, но одновременно и полезно: возрастёт ценность прозрачности, честных источников и верифицированных данных. Возможно, через несколько лет значки и сертификаты подлинности будут такой же обыденностью, как отметки о безопасности сайтов или «галочки» в соцсетях, а массовая аудитория выработает иммунитет к большинству грубых фейков.
В эпоху, когда ИИ может сымитировать почти всё, у нас нет выбора — придётся выстроить новые протоколы реальности, где истинность подтверждается. Слова seeing is believing («увидел — значит поверил») сменяются принципом verified is believing — «поверю, когда проверю».
Будущее ИИ Знания