Anthropic зафиксировала всплеск ИИ-киберпреступности и «вайб-хакинга

Компания Anthropic представила свежий отчет, в котором предупредила о стремительном росте преступлений с использованием генеративного ИИ. Главным открытием стало появление нового метода атак — «вайб-хакинга».

Вайб-хакинг — это новая форма кибератаки, при которой злоумышленники используют искусственный интеллект и психологические методы давления, чтобы воздействовать на эмоциональное состояние жертвы. Цель таких атак — вызвать страх, тревогу или доверие, чтобы заставить человека добровольно раскрыть конфиденциальные данные, заплатить выкуп или выполнить нужные действия.

Иными словами, если традиционный хакинг нацелен на взлом технических систем, то вайб-хакинг работает с уязвимостями человеческой психики.

Опасные возможности генеративных ИИ

Распространение доступных ИИ-инструментов открыло злоумышленникам путь к масштабным атакам. Теперь они способны не только рассылать убедительные письма с угрозами, но и проводить комплексные киберкампании. По данным отчета, Anthropic зафиксировала многочисленные попытки использовать ее модели Claude для обхода защит, фишинга и автоматизации вредоносной активности.

Особый резонанс вызвал случай, когда группировка применила Claude Code — специализированный агент для написания кода. С его помощью были взломаны 17 организаций, включая государственные учреждения, медицинские сервисы, службы экстренной помощи и даже религиозные структуры. Хакеры использовали инструмент для написания сообщений с требованиями выкупа и проведения атак, а общая сумма требований превысила полмиллиона долларов.

Необычные сценарии злоупотреблений

Отчет показывает, что проблема не ограничивается программами-вымогателями. В ряде случаев ИИ помогал мошенникам при трудоустройстве в крупные компании. Используя языковые и профессиональные подсказки, модели помогали кандидатам обходить барьеры и успешно проходить собеседования, создавая видимость высокой компетенции.

Другой тревожный тренд — «романтические» мошенничества. С помощью Claude в мессенджере Telegram создавались боты, которые вели доверительное общение с жертвами, подстраиваясь под их настроение. Эти виртуальные собеседники писали на нескольких языках, создавали комплименты и выстраивали иллюзию отношений. Подобные схемы были выявлены в США, Японии и Южной Корее.

Ответные меры компании

Чтобы минимизировать риски, Anthropic предприняла жесткие шаги. Компания заблокировала подозрительные аккаунты, усилила защитные механизмы и передала собранные данные государственным органам. Также была обновлена политика использования: теперь она прямо запрещает применение моделей для разработки вредоносного ПО и любых форм мошенничества.

Отчет подчеркивает, что злоупотребления ИИ становятся все более изощренными, а методы атак выходят далеко за рамки привычного фишинга или вирусов-вымогателей.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *