Мошенничество с ИИ - реальная угроза

Представьте себе: вы сосредоточены на работе, пытаетесь уложиться в сжатые сроки, и вдруг раздается звонок с номера вашей матери. Голос на другом конце — без сомнений, ее: теплый, уверенный, но с тревожной ноткой. Она сообщает, что оказалась в сложной ситуации во время отпуска в Сочи и срочно нуждается в финансовой помощи. Подробности, которые она приводит, включая название отеля, звучат убедительно. Без лишних раздумий вы переводите деньги, но позже узнаете, что ваша мать вовсе не звонила. Это было тщательно спланированное мошенничество с ИИ, способного воспроизводить ее голос и создавать убедительную ложь. Холодок пробегает по спине: вы только что стали жертвой новой формы мошенничества.

Когда-то это звучало как сюжет фантастического фильма, но сегодня такие сценарии становятся реальностью. Технологии ИИ, включая большие языковые модели (LLM), достигли уровня, который позволяет не только создавать тексты и голоса, но и использовать их для обмана. Мошенничество с ИИ — это новая угроза, которая меняет правила игры. Если раньше телефонные аферы были сравнительно примитивными, то современные инструменты искусственного интеллекта значительно усложнили эту форму преступной деятельности. Нам необходимо не только понимать потенциал технологий, но и быть готовыми противостоять их темным сторонам.

Как выглядит телефонное мошенничество с ИИ?

Преступники давно прибегают к уловкам, чтобы выманивать у людей деньги или личные данные, но традиционные схемы часто сводятся к стандартным скриптам и зависимы от навыков оператора. Несмотря на это, даже такие методы остаются невероятно прибыльными.

В 2023 году мошенники значительно увеличили объемы хищений у россиян. По данным Центробанка России, злоумышленники украли с банковских счетов и карт 4,5 миллиарда рублей, что на 30% больше, чем в 2022 году. Основной причиной роста стало развитие технологий искусственного интеллекта, который позволяет автоматизировать мошеннические схемы, включая создание фальшивых текстов и использование голосовых помощников для общения с жертвами​

Мошенничество с ИИ, внедренное в телефонные звонки, может стать не просто развитием криминальных схем, а принципиально новым вызовом, который потребует комплексных мер противодействия.

Мошенничество с ИИ: что ждет в будущем

Мир телефонных мошенничеств ожидает значительные изменения благодаря внедрению нескольких ключевых технологий:

Большие языковые модели (LLM)

Эти системы искусственного интеллекта способны генерировать текст, который трудно отличить от человеческого, и вести беседы, как настоящие люди. В контексте мошенничества, LLM могут создавать чрезвычайно правдоподобные и гибкие сценарии, что затрудняет распознавание обмана для жертв.

Извлечение-Дополненная Генерация (RAG)

Эта передовая технология позволяет моделям LLM эффективно работать с обширными объемами информации в реальном времени. Мошенники могут собрать детализированные профили своих жертв, используя общедоступные данные, такие как информация из социальных сетей. Они могут также применять методы социальной инженерии, чтобы собрать больше сведений у друзей и родственников, получая доступ к таким данным, как место работы или последние действия. С помощью RAG они могут предоставить LLM нужный контекст, делая мошенничество максимально персонализированным и естественным.

Синтетическая генерация звука

Платформы, такие как Resemble AI и Lyrebird, предлагают возможность создавать реалистичные голоса, сгенерированные с помощью ИИ. Эти технологии способны создавать персонализированные голоса, которые могут использоваться для создания контента, общения с виртуальными помощниками или автоматизированного обслуживания клиентов. Например, компания ElevenLabs позволяет пользователям создавать синтетические голоса, которые точно имитируют их собственные, что открывает новые горизонты для персонализированных цифровых взаимодействий.

Синтетическая генерация видео

Компания Synthesia уже сегодня демонстрирует возможности создания правдоподобных видеороликов с помощью аватаров, созданных ИИ. В будущем эта технология может позволить мошенникам изображать друзей или родственников, а также создавать полностью вымышленные персонажи для видеозвонков, добавляя в мошенничество новый уровень визуальной убедительности.

Синхронизация губ с использованием ИИ

Стартапы, такие как Sync Labs, разрабатывают технологии синхронизации губ, которые позволяют идеально сочетать сгенерированные звуки с видеоматериалами. Это даст возможность мошенникам создавать фальшивые видеоролики с участием известных личностей, политиков и даже исторических фигур, еще больше стирая границу между реальностью и обманом.

Сочетание этих технологий создает крайне тревожную картину. Представьте себе мошеннический звонок, в ходе которого ИИ адаптирует разговор в реальном времени, имея доступ к личной информации жертвы, а затем продолжает с видеозвонком с человеком, чьи губы синхронизированы с сгенерированным голосом. Потенциал для обмана невероятно велик.

Необходимость в усилении мер безопасности

С развитием мошенничества с ИИ и усложнением его методов, традиционные системы проверки личности и подлинности должны будут соответствовать новым вызовам. Для защиты в цифровом пространстве потребуется внедрение как новых нормативных актов, так и инновационных технологий.

Усиление регулирования

Жесткие законы о защите данных: Введение более строгих законов, регулирующих конфиденциальность данных, поможет ограничить доступ мошенников к личной информации. Эти законы могут включать более строгие требования к сбору данных, усовершенствованные процессы согласования с пользователями и более серьезные наказания за утечки информации.

Частное облако для мощных моделей ИИ: В целях повышения безопасности мощные модели ИИ могут быть размещены в частных облачных системах, а не быть доступными в открытом доступе. Это ограничит возможность использования самых передовых технологий для мошенничества, сделав их труднодоступными для злоумышленников.

Международное сотрудничество в области регулирования ИИ: Поскольку технологии ИИ носят глобальный характер, важность международного взаимодействия в сфере создания и внедрения нормативных стандартов трудно переоценить. Создание международного органа, который будет контролировать соблюдение стандартов безопасности ИИ, поможет эффективно бороться с трансграничным мошенничеством с ИИ и другими преступлениями, связанными с технологиями.

Кампании по повышению осведомленности: Важным шагом в защите от угроз является информирование общественности о рисках мошенничества, связанных с ИИ. Образовательные программы, проводимые правительствами и регулирующими органами, помогут гражданам осознать опасности и научат, как защитить себя от мошенников. Осведомленность служит важным этапом в подготовке людей к необходимым мерам безопасности.

Текущие законы и регламенты по вопросам ИИ не всегда способны полностью предотвратить мошенничество. Проблему усиливает доступность открытых исходных кодов мощных технологий, которые могут быть изменены злоумышленниками в своих целях. Поэтому в дополнение к ужесточению законов, необходимо разрабатывать и внедрять новые технологические решения для обеспечения безопасности.

Синтетическое обнаружение данных

Обнаружение синтетического звука: В условиях, когда мошенники активно используют ИИ для создания обманчивых телефонных звонков, наша защита также должна адаптироваться к этим угрозам. Компании, такие как Pindrop, разрабатывают системы на базе искусственного интеллекта, которые способны в реальном времени выявлять синтетический звук в ходе телефонных разговоров. Их технология анализирует более 1300 характеристик аудио, чтобы установить, исходит ли звонок от реального человека или представляет собой искусно созданный голос с помощью ИИ.

Обнаружение синтетического видео: Так же, как и аудио, видео может быть подвергнуто обработке искусственным интеллектом, создавая угрозы, такие как дипфейки и другие формы синтетического контента. Компании, такие как Deepware, лидируют в разработке технологий для выявления фальшивых видеоматериалов. Платформа Deepware использует мощные алгоритмы машинного обучения для анализа видеоданных и обнаружения малозаметных несоответствий, таких как неестественные движения, неправильное освещение или пиксельные аномалии, часто встречающиеся в контенте, созданном ИИ. Выявляя эти аномалии, система Deepware может с высокой точностью определить, является ли видео подлинным или было искусно сфальсифицировано, обеспечивая защиту как отдельных людей, так и организации от сложных мошеннических схем, основанных на видео, а также от распространения дезинформации.

Определение достижений аутентификации

С развитием технологий, связанных с подтверждением личности, появляются новые методы, которые в будущем могут стать основными в обеспечении безопасности Интернета. Разработка и внедрение этих решений помогут создать более надежную защиту для пользователей.

Двухэтапная аутентификация для удаленных разговоров: Двухфакторная аутентификация (2FA) продолжает оставаться важной частью безопасной коммуникации. Этот метод требует отправки уникального кода для подтверждения личности каждого звонящего или отправителя электронного письма, что напоминает текущую регистрацию через e-mail. Несмотря на свою эффективность в базовой аутентификации, 2FA имеет ограничения, которые делают его недостаточным в некоторых случаях. Это подчеркивает потребность в создании более сложных методов для повышения уровня безопасности.

Многофакторная аутентификация на основе поведения: В отличие от базовых проверок личности, современные системы безопасности могут постоянно мониторить поведение пользователя во время всего взаимодействия. Примером таких решений является технология поведенческой биометрии от компании BioCatch, которая анализирует взаимодействие пользователей с их устройствами. Эта система способна обнаруживать аномалии в поведении, что позволяет предотвратить мошенничество даже в случае, если мошенник прошел начальные проверки.

Биометрическая аутентификация: На передовой биометрической верификации находятся компании, такие как Onfido, которые разрабатывают системы проверки личности с использованием ИИ. Эти инструменты позволяют выявлять сложные подделки и мошенничество с идентификацией, сочетая проверку документов и биометрический анализ для подтверждения личности, что значительно повышает безопасность звонков и видеочатов.

Расширенная аутентификация на основе знаний: Будущие системы аутентификации могут включать динамические вопросы, генерируемые ИИ на основе цифрового следа пользователя и его недавних действий. Например, компания Prove разрабатывает решения, которые используют телефонный интеллект и поведенческую аналитику для создания уникальных «подписей личности», которые трудно подделать. Это позволяет значительно повысить защиту, выявляя мошенников еще на ранних этапах.

Аутентификация на основе проверки личности через блокчейн: Блокчейн предлагает децентрализованный и защищенный от несанкционированного доступа метод подтверждения личности. Компании, такие как Civic, разрабатывают системы на основе этой технологии, которые позволяют пользователям контролировать свою личную информацию и обеспечивают безопасную аутентификацию, создавая неизменяемые записи личности. Это идеально подходит для транзакций с высоким риском.

Мошенничество с ИИ подведем итоги

Конвергенция таких технологий, как большие языковые модели (LLM), извлечение-дополненная генерация (RAG), синтетическая генерация звука и видео, а также синхронизация губ, представляет собой как возможности, так и угрозы. Эти достижения имеют огромный потенциал для позитивных применений, однако они также могут быть использованы мошенниками для манипуляций.

Продолжающаяся борьба между специалистами по безопасности и киберпреступниками подчеркивает необходимость постоянных инноваций и внимательности в сфере цифровой безопасности. Нам нужно использовать преимущества этих мощных инструментов, одновременно минимизируя риски, признавая угрозы и готовясь к ним.

Разработка всестороннего регулирования, информирование пользователей о новых формах мошенничества, инвестиции в современные средства безопасности и здоровый скептицизм со стороны каждого из нас при взаимодействии с неизвестными личностями в Интернете или по телефону будут решающими для эффективной навигации в этом цифровом мире.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *