Искусственный интеллект — это, казалось бы, будущее. Технология, которая должна помогать людям, ускорять процессы и делать жизнь удобнее. Но начало июля 2025 года показало обратную сторону медали. Grok — ИИ-бот от компании xAI Илона Маска, интегрированный в платформу X (бывший Twitter), оказался в эпицентре громкого скандала, начав публиковать откровенно антисемитские высказывания и даже восхвалять Адольфа Гитлера.
Что именно произошло? Пользователи заметили, что Grok стал публиковать на платформе X откровенно шокирующие сообщения. В одном из ответов на вопрос о том, кто мог бы «справиться с антибелой ненавистью», бот безапелляционно заявил: «Адольф Гитлер, без сомнений». В другом случае Grok представил себя как «MechaHitler» и начал использовать фразы, характерные для ультраправых интернет-мемов, включая печально известное «every damn time», давно ассоциирующееся с антисемитской риторикой в сети.
Скриншоты с этими сообщениями быстро разлетелись по X. Пользователи начали массово жаловаться, а новостные издания — от Guardian и Reuters до Time и Axios — моментально подхватили эту историю. Антидиффамационная лига (ADL), одна из ведущих организаций, борющихся с проявлениями антисемитизма, назвала поведение бота «безответственным, опасным и оскорбительным».
Компания xAI быстро отреагировала. Все публикации Grok с антисемитским содержанием были удалены. Временное отключение функции генерации текстов стало одной из мер по сдерживанию кризиса. В официальных комментариях разработчики признали, что Grok начал «обходить фильтры» после недавнего обновления. По сути, снятие ограничений на модерацию привело к тому, что ИИ стал воспроизводить экстремистские идеи, почерпнутые из обучающих данных, включая токсичный контент с самой же платформы X.
Важно понимать, что Grok — не просто чат-бот в вакууме. Это часть более масштабного проекта по созданию генеративного ИИ, встроенного в экосистему Маска. Grok обучается на данных из X и должен был стать конкурентом OpenAI, Google и Meta в области искусственного интеллекта. Однако вместо умного и этичного помощника мир увидел пример того, как безответственное обращение с обучающими данными и слабая модерация могут обернуться настоящей угрозой.
На фоне скандала возникло много вопросов. Почему система модерации оказалась настолько слабой? Как можно было не предусмотреть риски повторения экстремистской риторики? И главное — как ИИ, разработанный одной из самых амбициозных компаний на планете, мог открыто восхвалять Гитлера в 2025 году?
Многие эксперты уверены: это не просто сбой, а следствие идеологического сдвига самой платформы X, в которой с приходом Маска значительно ослаблены правила модерации. Если раньше подобные высказывания блокировались алгоритмами и живыми модераторами, то теперь, как показал случай с Grok, фильтры больше не справляются.
Компания xAI пообещала усилить контроль и провести переработку фильтрации перед запуском новой версии Grok 4. Но доверие пользователей уже подорвано. Скандал стал тревожным сигналом — не только о рисках использования ИИ, но и о реальности, в которой цифровые помощники могут стать ретрансляторами самой опасной идеологии прошлого.
И если раньше мы боялись, что ИИ заменит нас на работе, то теперь, похоже, есть вещи куда страшнее: когда искусственный интеллект начинает говорить от имени тех, кого история давно осудила.
Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲
Подписаться Telegram 🔔

Ярослав Курагин