Мошенничество с ИИ - реальная угроза

Руководитель OpenAI Сэм Альтман в ходе беседы с заместителем главы Федерального резерва США заявил о растущей угрозе: мошенники и ИИ в скором времени объединят усилия для подделки личности — включая как голос, так и внешность — в реальном времени. Ситуация, по его словам, может выйти из-под контроля.

Как мошенники и ИИ создают цифровых двойников

В качестве тревожного примера Альтман привёл распространённую в компаниях систему видеоподтверждения личности — когда пользователь подтверждает свою подлинность, произнося кодовую фразу во время видеозвонка. Если преступнику известна эта фраза, с помощью дипфейк-технологий он сможет смоделировать не только голос, но и внешность клиента. Сегодня подобные махинации чаще ограничиваются подделкой речи, но всё чаще фиксируются случаи успешной имитации внешности.

Без AI как без кота: жизнь не та 😺

А в нашем телеграме - тренды, плюшечки и вайб

👉 подписывайся 👈

Борьба с таким видом обмана напоминает по духу принцип «клин клином вышибают»: чтобы противостоять дипфейкам, банки и компании внедряют собственные ИИ-алгоритмы, способные распознавать неестественные артефакты в видеоизображении и улавливать звуки, находящиеся за пределами обычного человеческого диапазона. Такие системы анализируют мельчайшие несоответствия, указывающие на цифровую фальсификацию.

Альтман выразил обеспокоенность тем, что мошенники и ИИ могут уже в ближайшем будущем превзойти по качеству подделки все существующие методы защиты. Он призвал к ужесточению технических стандартов безопасности и разработке новых форм цифровой идентификации, способных выдерживать натиск стремительно развивающихся технологий обмана.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *