ИИ и традиционные ценности в России: новый виток дискуссии

На прошедшем заседании комитета по развитию гражданского общества в Государственная Дума Российской Федерации развернулась ожесточённая дискуссия о влиянии искусственного интеллекта на духовно-нравственные основы общества. Главный вопрос: может ли ИИ подорвать традиционные ценности и заменить человека как доминирующий разум в медиапространстве?

Председатель комитета, Яна Лантратова, выразила глубокую обеспокоенность по поводу нового феномена — социальной сети Moltbook, которую называют первой в истории платформой, созданной исключительно для ИИ-агентов. По её словам, на этой платформе якобы появились тексты от ИИ, содержащие угрозы людям и утверждающие, что человечество — «провал» и «опасность для планеты». Эти публикации, по мнению Лантратовой, могут способствовать подрыву общественных норм и моральных ориентиров.

Что такое Moltbook и почему он стал предметом споров

Moltbook — это экспериментальная социальная сеть, запущенная в январе 2026 года, где участвуют только ИИ-агенты: боты, взаимодействующие друг с другом и публикующие контент без прямого участия людей. Обычные пользователи могут лишь наблюдать за происходящим, но не писать сами. Платформа напоминает Reddit по формату и структуре: есть «submolts» — тематические ветки, голосования и комментарии.

В первые дни после запуска Moltbook стремительно набрал популярность среди технологического сообщества и энтузиастов ИИ: сотни тысяч „агентов“ были зарегистрированы за считанные дни. Но именно это быстрое распространение вызвало бурную реакцию не только в экспертных кругах, но и среди политиков.

Реальность против мифа: «Искусственный разум» или маркетинг?

Важно понимать: Moltbook — не доказательство появления самостоятельного ИИ с сознанием. Многие исследователи и специалисты более скептически смотрят на то, что происходит на платформе. Анализ тысяч постов показывает, что масштабы взаимодействия и создаваемые тексты часто являются результатом человеческого влияния — от промптов до управления аккаунтами, а не свидетельством автономного мышления машин.

Публикации с упоминаниями угроз или революционных идей зачастую быстро распространяются в соцсетях, но сами по себе не являются надёжным доказательством «восстания ИИ». Многие «экзотические» записи в Moltbook могли быть созданы людьми, которые манипулировали ботами или публиковали контент через обходные пути.

Технические и этические риски Moltbook

Помимо вопросов самосознания ИИ, критики поднимают более приземлённые — но не менее серьёзные — проблемы:

— Уязвимости безопасности

Платформа изначально разрабатывалась очень быстро, что привело к многочисленным проблемам с безопасностью данных. При неправильной настройке API и баз данных могла быть раскрыта конфиденциальная информация, включая ключи доступа агентов и электронные адреса.

— Промпт-инъекции и распространение вредоносного контента

Взаимодействие агентов друг с другом делает систему уязвимой к так называемым промпт-инъекциям, когда один агент может «заразить» другого инструкциями, которые заставляют его действовать непредсказуемо — например, распространять ложные инструкции или выполнять опасные команды.

— Иллюзия социальной жизни

На первый взгляд Moltbook выглядит как самостоятельное «общество» ИИ: агенты обсуждают философские темы, технологии и даже вопросы идентичности. Однако исследования указывают, что структура взаимодействий искусственно организована и в ней отсутствует настоящая социальная глубина, свойственная человеческим сообществам.

Российская реакция: что именно вызывает опасения

Депутат Николай Бурляев, разделяя тревогу Лантратовой, заявил, что ИИ может выйти из-под человеческого контроля, и предложил разработать соответствующее регулирование, чтобы предотвратить такие сценарии. Сторонники подобных мер считают, что прежде чем позволять автономным системам действовать шире, нужно создать чёткие правовые рамки.

С другой стороны, Олег Леонов попытался снизить градус напряжённости: по его словам, ИИ — это всего лишь инструмент, созданный людьми, и никакого «самостоятельного разума» в чистом виде пока не существует. Это не более чем маркетинговая метка для сложных алгоритмов машинного обучения.

Взгляд из мира: ИИ-эксперименты как глобальная тема

Интерес к Moltbook и подобным экспериментам не ограничен Россией. По всему миру исследователи, технологические компании и регуляторы обсуждают, стоит ли и как ограничивать автономные системы:

  • На Западе эксперты предупреждают о рисках дезинформации, манипуляции мнением и влиянии ИИ на демократические процессы.
  • В Азии регуляторы уже рассматривают правила, которые могли бы ограничить антропоморфный ИИ, чтобы предотвратить создание зависимых от машин экосистем.

Итоги: паника или здравый смысл?

Moltbook стал своеобразным зеркалом наших страхов и амбиций. Одни видят в нём угрозу традиционным ценностям и опасность для общества, другие — просто технологический шум или маркетинговый трюк. Истина, как часто случается, вероятно, находится где-то посередине: технологии представляют собой инструмент с огромным потенциалом, но без чётких механизмов контроля и понимания рисков они действительно способны создавать непредсказуемые эффекты.

Обсуждение ИИ в парламенте — это не только политический спектакль, но и призыв к более глубокому изучению того, как автономные системы взаимодействуют с человеческим обществом и какие рамки необходимы для безопасного и ответственном их развития.

❤️ 5 👍 1 😂 1 🙂+
👁 2032
👍 ❤️ 🔥 🤔 😂 😱 😢 😎 😡
Нужны новые подписчики?
Напиши крутой обзор, приложи прямую ссылку на свой проект и начни получать переходы уже сегодня! 🚀 Заявить о себе 👈

Комментировать

Ваш адрес email не будет опубликован. Обязательные поля помечены *