Компания Anthropic представила свежий отчет, в котором предупредила о стремительном росте преступлений с использованием генеративного ИИ. Главным открытием стало появление нового метода атак — «вайб-хакинга».
Вайб-хакинг — это новая форма кибератаки, при которой злоумышленники используют искусственный интеллект и психологические методы давления, чтобы воздействовать на эмоциональное состояние жертвы. Цель таких атак — вызвать страх, тревогу или доверие, чтобы заставить человека добровольно раскрыть конфиденциальные данные, заплатить выкуп или выполнить нужные действия.
Иными словами, если традиционный хакинг нацелен на взлом технических систем, то вайб-хакинг работает с уязвимостями человеческой психики.
Опасные возможности генеративных ИИ
Распространение доступных ИИ-инструментов открыло злоумышленникам путь к масштабным атакам. Теперь они способны не только рассылать убедительные письма с угрозами, но и проводить комплексные киберкампании. По данным отчета, Anthropic зафиксировала многочисленные попытки использовать ее модели Claude для обхода защит, фишинга и автоматизации вредоносной активности.
Особый резонанс вызвал случай, когда группировка применила Claude Code — специализированный агент для написания кода. С его помощью были взломаны 17 организаций, включая государственные учреждения, медицинские сервисы, службы экстренной помощи и даже религиозные структуры. Хакеры использовали инструмент для написания сообщений с требованиями выкупа и проведения атак, а общая сумма требований превысила полмиллиона долларов.
Необычные сценарии злоупотреблений
Отчет показывает, что проблема не ограничивается программами-вымогателями. В ряде случаев ИИ помогал мошенникам при трудоустройстве в крупные компании. Используя языковые и профессиональные подсказки, модели помогали кандидатам обходить барьеры и успешно проходить собеседования, создавая видимость высокой компетенции.
Другой тревожный тренд — «романтические» мошенничества. С помощью Claude в мессенджере Telegram создавались боты, которые вели доверительное общение с жертвами, подстраиваясь под их настроение. Эти виртуальные собеседники писали на нескольких языках, создавали комплименты и выстраивали иллюзию отношений. Подобные схемы были выявлены в США, Японии и Южной Корее.
Ответные меры компании
Чтобы минимизировать риски, Anthropic предприняла жесткие шаги. Компания заблокировала подозрительные аккаунты, усилила защитные механизмы и передала собранные данные государственным органам. Также была обновлена политика использования: теперь она прямо запрещает применение моделей для разработки вредоносного ПО и любых форм мошенничества.
Отчет подчеркивает, что злоупотребления ИИ становятся все более изощренными, а методы атак выходят далеко за рамки привычного фишинга или вирусов-вымогателей.
Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲
Подписаться Telegram 🔔

Кира Титова