Люди верят дипфейку, даже после предупреждения о генерации
Психологи пришли к выводу, что люди продолжают доверять содержанию видеороликов даже в тех случаях, когда получают прямое уведомление о том, что видео является подделкой. Маркировка дипфейков снижает их убедительность лишь частично и не устраняет влияние увиденного на суждения аудитории о происходящем на экране.
Современные генеративные модели глубокого обучения позволяют создавать тексты, изображения и видео, которые сложно отличить от реальных. Производство такого контента уже стало прибыльной индустрией: аналитики оценивают совокупный годовой доход каналов, публикующих даже низкокачественные ИИ-ролики, более чем в 117 миллионов долларов. Лидеры этого сегмента зарабатывают миллионы, что усиливает риски для общества — от дискредитации публичных персон до подрыва доверия к видеодоказательствам в судах.
В ответ на рост синтетических медиа власти разных стран продвигают политику прозрачности. Так, европейское законодательство об ИИ требует обязательной маркировки контента, созданного нейросетями. Предполагается, что осознание подделки должно автоматически снижать доверие к такому материалу. Однако психологические исследования показали, что этот механизм работает не так эффективно, как ожидалось.
Результаты серии экспериментов были опубликованы в журнале Communications Psychology. Ученые создали собственные дипфейк-видео, чтобы исключить эффект узнаваемости. В одном сценарии вымышленный чиновник признавался во взяточничестве, в другом — блогер-веган рассказывала о нарушении своих принципов. В исследовании приняли участие более 600 добровольцев из США и Великобритании.
Участникам показывали либо реальные видеоролики с актерами, либо нейросетевые подделки. Одни зрители не получали никаких предупреждений, другим демонстрировали общее уведомление о существовании дипфейков, а третьим — конкретную плашку с указанием, что видео определено как поддельное. После просмотра участники оценивали подлинность ролика и делали моральные выводы о поведении героя.
Эксперименты показали, что даже при осознании искусственного происхождения видео его влияние сохраняется. Люди, видевшие прямое предупреждение, чаще распознавали дипфейк, однако все равно склонялись к выводу о виновности персонажа сильнее, чем те, кто вовсе не смотрел компрометирующий ролик. Даже признание подделки не мешало использовать визуальный образ для формирования суждений.
Общие предупреждения без указания на конкретный ролик дали еще более противоречивый эффект. Они не помогали отличать фейк от реальности, но снижали доверие к видеоконтенту в целом. Участники начинали сомневаться даже в подлинности настоящих записей, что подтверждает риск подрыва доверия к видео как к источнику информации.
Авторы исследования делают вывод, что прозрачность и маркировка сами по себе не являются надежной защитой от дезинформации. Визуальные образы продолжают воздействовать на восприятие и оценки людей, даже когда рационально известно, что контент создан нейросетью. Это означает, что обществу потребуется искать более сложные и действенные способы противодействия реалистичным цифровым подделкам, пишет источник.


