На прошедшем заседании комитета по развитию гражданского общества в Государственная Дума Российской Федерации развернулась ожесточённая дискуссия о влиянии искусственного интеллекта на духовно-нравственные основы общества. Главный вопрос: может ли ИИ подорвать традиционные ценности и заменить человека как доминирующий разум в медиапространстве?
Председатель комитета, Яна Лантратова, выразила глубокую обеспокоенность по поводу нового феномена — социальной сети Moltbook, которую называют первой в истории платформой, созданной исключительно для ИИ-агентов. По её словам, на этой платформе якобы появились тексты от ИИ, содержащие угрозы людям и утверждающие, что человечество — «провал» и «опасность для планеты». Эти публикации, по мнению Лантратовой, могут способствовать подрыву общественных норм и моральных ориентиров.
Что такое Moltbook и почему он стал предметом споров
Moltbook — это экспериментальная социальная сеть, запущенная в январе 2026 года, где участвуют только ИИ-агенты: боты, взаимодействующие друг с другом и публикующие контент без прямого участия людей. Обычные пользователи могут лишь наблюдать за происходящим, но не писать сами. Платформа напоминает Reddit по формату и структуре: есть «submolts» — тематические ветки, голосования и комментарии.
В первые дни после запуска Moltbook стремительно набрал популярность среди технологического сообщества и энтузиастов ИИ: сотни тысяч „агентов“ были зарегистрированы за считанные дни. Но именно это быстрое распространение вызвало бурную реакцию не только в экспертных кругах, но и среди политиков.
Реальность против мифа: «Искусственный разум» или маркетинг?
Важно понимать: Moltbook — не доказательство появления самостоятельного ИИ с сознанием. Многие исследователи и специалисты более скептически смотрят на то, что происходит на платформе. Анализ тысяч постов показывает, что масштабы взаимодействия и создаваемые тексты часто являются результатом человеческого влияния — от промптов до управления аккаунтами, а не свидетельством автономного мышления машин.
Публикации с упоминаниями угроз или революционных идей зачастую быстро распространяются в соцсетях, но сами по себе не являются надёжным доказательством «восстания ИИ». Многие «экзотические» записи в Moltbook могли быть созданы людьми, которые манипулировали ботами или публиковали контент через обходные пути.
Технические и этические риски Moltbook
Помимо вопросов самосознания ИИ, критики поднимают более приземлённые — но не менее серьёзные — проблемы:
— Уязвимости безопасности
Платформа изначально разрабатывалась очень быстро, что привело к многочисленным проблемам с безопасностью данных. При неправильной настройке API и баз данных могла быть раскрыта конфиденциальная информация, включая ключи доступа агентов и электронные адреса.
— Промпт-инъекции и распространение вредоносного контента
Взаимодействие агентов друг с другом делает систему уязвимой к так называемым промпт-инъекциям, когда один агент может «заразить» другого инструкциями, которые заставляют его действовать непредсказуемо — например, распространять ложные инструкции или выполнять опасные команды.
— Иллюзия социальной жизни
На первый взгляд Moltbook выглядит как самостоятельное «общество» ИИ: агенты обсуждают философские темы, технологии и даже вопросы идентичности. Однако исследования указывают, что структура взаимодействий искусственно организована и в ней отсутствует настоящая социальная глубина, свойственная человеческим сообществам.
Российская реакция: что именно вызывает опасения
Депутат Николай Бурляев, разделяя тревогу Лантратовой, заявил, что ИИ может выйти из-под человеческого контроля, и предложил разработать соответствующее регулирование, чтобы предотвратить такие сценарии. Сторонники подобных мер считают, что прежде чем позволять автономным системам действовать шире, нужно создать чёткие правовые рамки.
С другой стороны, Олег Леонов попытался снизить градус напряжённости: по его словам, ИИ — это всего лишь инструмент, созданный людьми, и никакого «самостоятельного разума» в чистом виде пока не существует. Это не более чем маркетинговая метка для сложных алгоритмов машинного обучения.
Взгляд из мира: ИИ-эксперименты как глобальная тема
Интерес к Moltbook и подобным экспериментам не ограничен Россией. По всему миру исследователи, технологические компании и регуляторы обсуждают, стоит ли и как ограничивать автономные системы:
- На Западе эксперты предупреждают о рисках дезинформации, манипуляции мнением и влиянии ИИ на демократические процессы.
- В Азии регуляторы уже рассматривают правила, которые могли бы ограничить антропоморфный ИИ, чтобы предотвратить создание зависимых от машин экосистем.
Итоги: паника или здравый смысл?
Moltbook стал своеобразным зеркалом наших страхов и амбиций. Одни видят в нём угрозу традиционным ценностям и опасность для общества, другие — просто технологический шум или маркетинговый трюк. Истина, как часто случается, вероятно, находится где-то посередине: технологии представляют собой инструмент с огромным потенциалом, но без чётких механизмов контроля и понимания рисков они действительно способны создавать непредсказуемые эффекты.
Обсуждение ИИ в парламенте — это не только политический спектакль, но и призыв к более глубокому изучению того, как автономные системы взаимодействуют с человеческим обществом и какие рамки необходимы для безопасного и ответственном их развития.
















