Журналисты со всего мира объединяются, чтобы найти инструменты для обнаружения дипфейков
Международная ассоциация по фактчекингу Global Fact-checking Network (GFCN)*, которая объединяет журналистов, экспертов в области разоблачения недостоверной информации, фактчекинговые организации по всему миру, работает над усовершенствованием систем обнаружения дипфейков. Подобные видео могут вводить в заблуждение пользователей, говорят участники организации, и люди далеко не всегда могут отличить правду от лжи.
Стали возможны не только новые схемы мошенничества, но дискредитация отдельных людей, причинение ущерба их репутации, политические провокации, разжигание межнациональной розни, дестабилизация социальной и политической обстановки в стране. Масса каналов, где весь контент генерирует ИИ. Темы могут быть любыми: история, медицина, актуальная информационная повестка. Количество дифейков на том же YouTube настолько велико, что платформа стала предупреждать о них зрителей.
Понимая, что пользователям всё сложнее отличить видео, созданные людьми и содержащие достоверную информацию, от дипфейк-видео, созданных ИИ, эксперты ищут способы, как выявить сфабрикованный контент. Сейчас в распоряжении GFCN система мониторинга «Зефир», которая позволяет отслеживать дипфейки. В мае GFCN объявила о старте международного конкурса Deepfake Detection Contest. Создателям систем обнаружения дипфейков со всего мира предлагается проверить эффективность своего программного обеспечения. Участники должны проверить на своём ПО 30 предложенных видео: есть реальные записи, без признаков дипфейка, есть такие, где ИИ имитировал или изменил человеческую мимику или речь.
В GFCN уверены: нужен периодический анализ качества существующих технологий в борьбе с фейковым контентом и поиск новых подходов в противодействии дипфейкам. Скорость развития дипфейк-технологий пока существенно опережает возможности защиты от них. Сегодня настоящий вызов для экспертов - нейросеть Veo 3 от Google DeepMind, представленная в мае 2025 года. Это модель, которая по одному текстовому запросу может создавать видео в высоком разрешении с реалистичной анимацией, фоновыми звуками и даже диалогами. Сгенерированные ролики выглядят достаточно убедительно, чтобы пользователи поверили в несуществующие события или фальшивые свидетельства очевидцев. Качественный видеоконтент стал способом для манипуляций, которым сложно не поддаться.
«Даже если со временем станет возможным убедить людей перепроверять всё, что они видят, массовое использование подобных инструментов приведёт к ещё одной проблеме: потере доверия к реальным видеодоказательствам <…> Мы живём в мире дезинформации, и именно нам, «осознанным», приходится проверять всё, что видим в интернете, задаваться вопросом — реальность это или ИИ. Задача сложная, но необходимая в наше время, прежде чем во что-то поверить», - говорят в GFCN.
*Ассоциация GFCN учреждена информационным агентством ТАСС, АНО «Диалог Регионы» и «Мастерской новых медиа» в начале 2025 года.
Кирилл ГРАДОВ
«Прессапарте»/Pressaparte.ru
Читайте также:
«Это другой мир», но они его не увидят
В России всплеск интереса к тем, кто может создавать авторские тексты
Мировые тенденции в медиа: как и где люди будут искать ответы на вопросы
Поделиться с друзьями:




