Мошенничество с ИИ: что ждет в будущем
Мир телефонных мошенничеств ожидает значительные изменения благодаря внедрению нескольких ключевых технологий:
Большие языковые модели (LLM)
Эти системы искусственного интеллекта способны генерировать текст, который трудно отличить от человеческого, и вести беседы, как настоящие люди. В контексте мошенничества, LLM могут создавать чрезвычайно правдоподобные и гибкие сценарии, что затрудняет распознавание обмана для жертв.
Извлечение-Дополненная Генерация (RAG)
Эта передовая технология позволяет моделям LLM эффективно работать с обширными объемами информации в реальном времени. Мошенники могут собрать детализированные профили своих жертв, используя общедоступные данные, такие как информация из социальных сетей. Они могут также применять методы социальной инженерии, чтобы собрать больше сведений у друзей и родственников, получая доступ к таким данным, как место работы или последние действия. С помощью RAG они могут предоставить LLM нужный контекст, делая мошенничество максимально персонализированным и естественным.
Синтетическая генерация звука
Платформы, такие как Resemble AI и Lyrebird, предлагают возможность создавать реалистичные голоса, сгенерированные с помощью ИИ. Эти технологии способны создавать персонализированные голоса, которые могут использоваться для создания контента, общения с виртуальными помощниками или автоматизированного обслуживания клиентов. Например, компания ElevenLabs позволяет пользователям создавать синтетические голоса, которые точно имитируют их собственные, что открывает новые горизонты для персонализированных цифровых взаимодействий.
Синтетическая генерация видео
Компания Synthesia уже сегодня демонстрирует возможности создания правдоподобных видеороликов с помощью аватаров, созданных ИИ. В будущем эта технология может позволить мошенникам изображать друзей или родственников, а также создавать полностью вымышленные персонажи для видеозвонков, добавляя в мошенничество новый уровень визуальной убедительности.
Синхронизация губ с использованием ИИ
Стартапы, такие как Sync Labs, разрабатывают технологии синхронизации губ, которые позволяют идеально сочетать сгенерированные звуки с видеоматериалами. Это даст возможность мошенникам создавать фальшивые видеоролики с участием известных личностей, политиков и даже исторических фигур, еще больше стирая границу между реальностью и обманом.
Сочетание этих технологий создает крайне тревожную картину. Представьте себе мошеннический звонок, в ходе которого ИИ адаптирует разговор в реальном времени, имея доступ к личной информации жертвы, а затем продолжает с видеозвонком с человеком, чьи губы синхронизированы с сгенерированным голосом. Потенциал для обмана невероятно велик.
Необходимость в усилении мер безопасности
С развитием мошенничества с ИИ и усложнением его методов, традиционные системы проверки личности и подлинности должны будут соответствовать новым вызовам. Для защиты в цифровом пространстве потребуется внедрение как новых нормативных актов, так и инновационных технологий.
Усиление регулирования
Жесткие законы о защите данных: Введение более строгих законов, регулирующих конфиденциальность данных, поможет ограничить доступ мошенников к личной информации. Эти законы могут включать более строгие требования к сбору данных, усовершенствованные процессы согласования с пользователями и более серьезные наказания за утечки информации.
Частное облако для мощных моделей ИИ: В целях повышения безопасности мощные модели ИИ могут быть размещены в частных облачных системах, а не быть доступными в открытом доступе. Это ограничит возможность использования самых передовых технологий для мошенничества, сделав их труднодоступными для злоумышленников.
Международное сотрудничество в области регулирования ИИ: Поскольку технологии ИИ носят глобальный характер, важность международного взаимодействия в сфере создания и внедрения нормативных стандартов трудно переоценить. Создание международного органа, который будет контролировать соблюдение стандартов безопасности ИИ, поможет эффективно бороться с трансграничным мошенничеством с ИИ и другими преступлениями, связанными с технологиями.
Кампании по повышению осведомленности: Важным шагом в защите от угроз является информирование общественности о рисках мошенничества, связанных с ИИ. Образовательные программы, проводимые правительствами и регулирующими органами, помогут гражданам осознать опасности и научат, как защитить себя от мошенников. Осведомленность служит важным этапом в подготовке людей к необходимым мерам безопасности.
Текущие законы и регламенты по вопросам ИИ не всегда способны полностью предотвратить мошенничество. Проблему усиливает доступность открытых исходных кодов мощных технологий, которые могут быть изменены злоумышленниками в своих целях. Поэтому в дополнение к ужесточению законов, необходимо разрабатывать и внедрять новые технологические решения для обеспечения безопасности.
Синтетическое обнаружение данных
Обнаружение синтетического звука: В условиях, когда мошенники активно используют ИИ для создания обманчивых телефонных звонков, наша защита также должна адаптироваться к этим угрозам. Компании, такие как Pindrop, разрабатывают системы на базе искусственного интеллекта, которые способны в реальном времени выявлять синтетический звук в ходе телефонных разговоров. Их технология анализирует более 1300 характеристик аудио, чтобы установить, исходит ли звонок от реального человека или представляет собой искусно созданный голос с помощью ИИ.
Обнаружение синтетического видео: Так же, как и аудио, видео может быть подвергнуто обработке искусственным интеллектом, создавая угрозы, такие как дипфейки и другие формы синтетического контента. Компании, такие как Deepware, лидируют в разработке технологий для выявления фальшивых видеоматериалов. Платформа Deepware использует мощные алгоритмы машинного обучения для анализа видеоданных и обнаружения малозаметных несоответствий, таких как неестественные движения, неправильное освещение или пиксельные аномалии, часто встречающиеся в контенте, созданном ИИ. Выявляя эти аномалии, система Deepware может с высокой точностью определить, является ли видео подлинным или было искусно сфальсифицировано, обеспечивая защиту как отдельных людей, так и организации от сложных мошеннических схем, основанных на видео, а также от распространения дезинформации.
Определение достижений аутентификации
С развитием технологий, связанных с подтверждением личности, появляются новые методы, которые в будущем могут стать основными в обеспечении безопасности Интернета. Разработка и внедрение этих решений помогут создать более надежную защиту для пользователей.
Двухэтапная аутентификация для удаленных разговоров: Двухфакторная аутентификация (2FA) продолжает оставаться важной частью безопасной коммуникации. Этот метод требует отправки уникального кода для подтверждения личности каждого звонящего или отправителя электронного письма, что напоминает текущую регистрацию через e-mail. Несмотря на свою эффективность в базовой аутентификации, 2FA имеет ограничения, которые делают его недостаточным в некоторых случаях. Это подчеркивает потребность в создании более сложных методов для повышения уровня безопасности.
Многофакторная аутентификация на основе поведения: В отличие от базовых проверок личности, современные системы безопасности могут постоянно мониторить поведение пользователя во время всего взаимодействия. Примером таких решений является технология поведенческой биометрии от компании BioCatch, которая анализирует взаимодействие пользователей с их устройствами. Эта система способна обнаруживать аномалии в поведении, что позволяет предотвратить мошенничество даже в случае, если мошенник прошел начальные проверки.
Биометрическая аутентификация: На передовой биометрической верификации находятся компании, такие как Onfido, которые разрабатывают системы проверки личности с использованием ИИ. Эти инструменты позволяют выявлять сложные подделки и мошенничество с идентификацией, сочетая проверку документов и биометрический анализ для подтверждения личности, что значительно повышает безопасность звонков и видеочатов.
Расширенная аутентификация на основе знаний: Будущие системы аутентификации могут включать динамические вопросы, генерируемые ИИ на основе цифрового следа пользователя и его недавних действий. Например, компания Prove разрабатывает решения, которые используют телефонный интеллект и поведенческую аналитику для создания уникальных «подписей личности», которые трудно подделать. Это позволяет значительно повысить защиту, выявляя мошенников еще на ранних этапах.
Аутентификация на основе проверки личности через блокчейн: Блокчейн предлагает децентрализованный и защищенный от несанкционированного доступа метод подтверждения личности. Компании, такие как Civic, разрабатывают системы на основе этой технологии, которые позволяют пользователям контролировать свою личную информацию и обеспечивают безопасную аутентификацию, создавая неизменяемые записи личности. Это идеально подходит для транзакций с высоким риском.
Мошенничество с ИИ подведем итоги
Конвергенция таких технологий, как большие языковые модели (LLM), извлечение-дополненная генерация (RAG), синтетическая генерация звука и видео, а также синхронизация губ, представляет собой как возможности, так и угрозы. Эти достижения имеют огромный потенциал для позитивных применений, однако они также могут быть использованы мошенниками для манипуляций.
Продолжающаяся борьба между специалистами по безопасности и киберпреступниками подчеркивает необходимость постоянных инноваций и внимательности в сфере цифровой безопасности. Нам нужно использовать преимущества этих мощных инструментов, одновременно минимизируя риски, признавая угрозы и готовясь к ним.
Разработка всестороннего регулирования, информирование пользователей о новых формах мошенничества, инвестиции в современные средства безопасности и здоровый скептицизм со стороны каждого из нас при взаимодействии с неизвестными личностями в Интернете или по телефону будут решающими для эффективной навигации в этом цифровом мире.
Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲
Подписаться Telegram 🔔