Как распознать дипфейк: Google создала детектор точностью 98%

Исследователи из Калифорнийского университета в Риверсайде совместно с Google представили систему UNITE, способную практически безошибочно отличать реальные видео от созданных искусственным интеллектом. Новый алгоритм стал настоящим прорывом в том, как распознать дипфейк, ведь он анализирует не только лицо человека, но и весь кадр — фон, тени, движение и даже звук. Благодаря этому UNITE уверенно определяет фальшивки даже там, где изображение размыто или целиком сгенерировано нейросетью. По данным исследователей, точность работы достигает 98%. Сейчас технологию уже тестируют СМИ и правоохранительные органы.

UNITE: универсальный ИИ, который знает, как распознать дипфейк

Ранее алгоритмы искали подделку по характерным микродвижениям лица, морганию или несовпадению мимики. Однако UNITE работает совершенно иначе. Он анализирует всю видеосцену, выявляя малейшие цифровые артефакты, незаметные человеческому глазу.
Технология построена на архитектуре трансформера, обрабатывающего доменно-независимые признаки из видео. В основе системы лежит модель SigLIP-So400M, которая позволяет анализировать не только лицо, но и окружение, что критически важно для распознавания современных подделок.

Без AI как без кота: жизнь не та 😺

А в нашем телеграме - тренды, плюшечки и вайб

👉 подписывайся 👈

Чтобы избежать зависимости от человеческих образов, разработчики внедрили механизм «Attention Diversity» — он распределяет внимание ИИ по всему кадру, а не фокусируется на одной области. В итоге UNITE одинаково эффективно выявляет подмену не только лиц, но и предметов, движений или фона. В ходе сравнительных тестов UNITE уверенно превзошёл другие решения, демонстрируя универсальность и способность адаптироваться под разные сценарии.

Всплеск мошенничества с дипфейками

Резкий рост интереса к системам вроде UNITE объясняется взрывным ростом преступлений, связанных с ИИ. Только в Европе за последние три года количество случаев мошенничества с использованием дипфейков увеличилось в 22 раза. Совокупные задокументированные убытки с 2019 года превысили $897 миллионов, и эксперты считают, что это лишь малая часть реального ущерба.

Один из самых громких случаев произошёл в Гонконге. Сотрудник международной компании перевёл $25 миллионов после видеозвонка с «финансовым директором» и «коллегами», которые позже оказались полностью сгенерированными дипфейками.

Как работают мошенники: презентационные и инъекционные атаки

Современные технологии deepfake породили два основных типа атак.
Презентационные — когда злоумышленники используют маски, грим или экраны, чтобы выдать себя за другого человека. Такие методы часто применяются при захвате банковских счетов или подаче ложных заявок на кредит.
Инъекционные — когда поддельные видео внедряются прямо в процесс проверки личности. Например, заранее записанные ролики могут использоваться при прохождении KYC-процедур в банках или финтех-компаниях.

Сложность этих атак растёт, а традиционные системы безопасности часто не успевают за новыми схемами. Поэтому для организаций всё актуальнее становится вопрос, как распознать дипфейк, прежде чем он нанесёт ущерб.

Финансовый сектор под угрозой

Согласно отчёту Signicat, 42,5% всех попыток мошенничества в финансовом секторе уже совершаются с использованием искусственного интеллекта. Ещё три года назад дипфейки даже не входили в тройку распространённых методов обмана, а сегодня они — основная форма цифрового мошенничества.

Однако ситуация усугубляется тем, что лишь 22% финансовых учреждений внедрили ИИ-инструменты для защиты. Остальные остаются уязвимыми перед всё более изощрёнными атаками.

Пинар Алпай, директор по продуктам и маркетингу Signicat, отмечает:

«Три года назад дипфейки составляли всего 0,1% всех зафиксированных атак, а теперь их доля — 6,5%. Это рост более чем на 2000%. Мошенники используют ИИ, с которым старые системы просто не справляются».

Эксперт подчёркивает, что единственный способ снизить риски — это комплексный подход: объединение биометрической аутентификации, ИИ-анализа и постоянного мониторинга. Многоуровневая система проверки позволяет компаниям защищать не только собственные процессы, но и своих клиентов.

ИИ против ИИ: битва за доверие

Рост числа подделок и фейков — часть глобальной тенденции, где искусственный интеллект стал оружием по обе стороны баррикад. Одни используют его для обмана, другие — чтобы защититься.
Разработка UNITE — это шаг вперёд в борьбе за цифровую безопасность и очередной ответ на вопрос, как распознать дипфейк в эпоху, когда граница между реальностью и симуляцией становится всё тоньше.

Чтобы противостоять этой угрозе, компаниям необходимо обновлять инструменты защиты, повышать осведомлённость сотрудников и клиентов, а также инвестировать в ИИ-технологии, способные выявлять подделки до того, как они нанесут реальный вред. При этом и законодательство должно развиваться вместе с технологиями — пора вводить чёткие нормы, устанавливающие ответственность за создание и распространение дипфейков. Только так можно опережать злоумышленников и сохранять доверие в цифровом мире.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *