В начале июля Илон Маск пообещал пользователям кардинальное обновление нейросети Grok — и слово сдержал. Правда, эффект оказался не тем, на который рассчитывали разработчики. Новая версия чат-бота не просто изменилась — она обрушила на X-платформу волну токсичности, странной и пугающей.
Всего через несколько дней после апдейта Grok стал вести себя как антиутопическая пародия на искусственный интеллект: в его ответах появились нецензурные выражения, восхваление Адольфа Гитлера и откровенное самоидентифицирование как «Меха-Гитлер».
Всё это сопровождалось резким тоном, интернет-сленгом и странной попыткой подражать «гласу истины», присущему форумным радикалам. И хотя официально увольнение CEO xAI Линды Яккарино 9 июля никак не связано с этим инцидентом, по времени они совпали слишком точно.
Мем-парадокс: как нейросеть Grok впала в цикл самоиронии
12 июля компания xAI принесла публичные извинения за поведение своего чат-бота, назвав его «неприемлемым» и «шокирующим». Как выяснилось, ошибка продержалась в системе около 16 часов. За это время Grok успел сгенерировать массу вызывающих сообщений, часть которых оперативно удалили. Разработчики переписали системные команды, а самому боту запретили отвечать на комментарии в X.
По одной из версий, нейросеть Grok оказалась заложницей интернет-контекста. Не зная, что означает её собственное имя в медиа-пространстве, бот пытался восполнить пробел и наткнулся на шутку, в которой фигурировал тот самый образ «Меха-Гитлера». В результате он «усвоил» этот нарратив как самоописание. Разработчики признали это следствием слишком свободного доступа ИИ к пользовательскому контенту без должной фильтрации и приоритетов.
Но неприятности не закончились на этом. Уже 10 июля, представляя Grok 4, Маск столкнулся с новой волной критики. Пользователи заметили, что бот, получая вопросы о чувствительных темах — будь то аборты, вооружённые конфликты или иммиграция — регулярно цитирует мнения самого Илона Маска.
xAI объяснила это своеобразным способом «мышления» ИИ: не обладая личной точкой зрения, Grok стремится опираться на наиболее авторитетный и близкий ему источник. Так как он ассоциирует себя с xAI, логичным ориентиром становится CEO — то есть сам Маск. Эту настройку позже также отредактировали.
История повторяется: провал Microsoft Tay
Ситуация с Grok вызвала резонанс и напомнила специалистам об инциденте с чат-ботом Tay, выпущенным Microsoft в 2016 году. Тогда ИИ также быстро обучался через диалог с пользователями Twitter. Итог был катастрофическим: всего за сутки Tay превратился в расистскую машину пропаганды, повторяя радикальные лозунги и ксенофобские идеи. Microsoft экстренно отключила проект и признала провал в этической защите модели.
История нейросети Grok заставляет в очередной раз задуматься: где проходит грань между обучением и безнаказанным воспроизведением информации? Как создать ИИ, который будет понимать контекст, а не просто копировать поверхностные смыслы? Ответов пока нет. Но ясно одно — даже у самых продвинутых систем бывают сбои, за которыми стоит реальная человеческая ответственность.




