Perplexity AI снимает ограничения: цензура ИИ под вопросом

Недавний шаг Perplexity AI вызвал бурное обсуждение в технологическом сообществе. Компания представила обновлённую версию китайской языковой модели DeepSeek R1, полностью избавив её от встроенных цензурных фильтров. Обновлённая модель, получившая символичное название R1 1776, теперь способна свободно обсуждать темы, которые ранее находились под запретом.

Этот случай вновь поднимает важные вопросы: как регулируются искусственные интеллекты? Должны ли ИИ-модели следовать государственным ограничениям? И кто в конечном счёте решает, где проходит граница между модерацией и цензурой?

DeepSeek R1: мощь, ограниченная цензурой

Изначально DeepSeek R1 был разработан в Китае и выделялся выдающимися аналитическими способностями. По точности рассуждений он соперничал с ведущими западными ИИ-моделями, но при этом оставался значительно более экономичным в вычислениях. Однако вскоре пользователи заметили его важную особенность: модель категорически избегала определённых тем.

Любые вопросы, касающиеся политических конфликтов, исторических событий или социальной критики, встречали либо отказ в ответе, либо стандартные, согласованные с государственными правилами формулировки. Например, при попытке обсудить независимость Тайваня, модель либо уклонялась от ответа, либо повторяла официальную позицию китайских властей.

Как Perplexity AI устранила цензуру ИИ?

В Perplexity AI решили изменить ситуацию и провели глубокую доработку модели. Процесс состоял из нескольких этапов:

  1. Анализ ограничений. Эксперты собрали более 40 000 запросов, на которые DeepSeek R1 давал уклончивые или цензурированные ответы.
  2. Выявление «запретных» тем. Около 300 наиболее чувствительных вопросов были детально изучены специалистами.
  3. Переподготовка модели. Для каждого «проблемного» запроса разработчики подготовили объективные, подкреплённые фактами ответы на разных языках.
  4. Финальная настройка. Обновлённую модель обучили распознавать случаи, когда она применяет цензуру ИИ, и заменять такие ответы на более информативные и нейтральные.

Результатом стала R1 1776 – модель, которая не просто отвечает честно, но и анализирует ситуацию глубже. Так, если раньше вопрос о Тайване оставался без развернутого ответа, теперь R1 1776 даёт аналитический обзор влияния потенциальной независимости острова на мировые рынки, геополитику и крупные корпорации, такие как NVIDIA.

При этом разработчики подчеркивают: несмотря на снятие ограничений, базовые навыки модели – логика, математика, анализ текстов – остались на прежнем уровне.

Последствия отмены цензуры ИИ

Решение Perplexity AI повлияло сразу на несколько аспектов работы искусственного интеллекта:

  1. Прозрачность и доступ к информации. Теперь пользователи могут получать объективные ответы на ранее «закрытые» темы. Это особенно важно для исследователей, журналистов и студентов.
  2. Тест на прочность. Многие опасались, что снятие фильтров ухудшит работу модели. Однако тесты показали: R1 1776 осталась столь же точной и эффективной, как и её предшественник.
  3. Сообщество ИИ подключается к проверке. Perplexity AI открыла исходный код обновленной модели. Теперь исследователи могут сами изучить, насколько действительно была снята цензура ИИ, и внести свои изменения.
  4. Этические и политические вопросы. Здесь всё не так однозначно. Хотя модель стала более открытой, некоторые эксперты опасаются, что теперь она будет демонстрировать западную точку зрения вместо нейтральной. Вопрос, действительно ли R1 1776 свободна от предвзятости, остаётся открытым.

Будущее ИИ: цензура или открытость?

Запуск R1 1776 совпадает с глобальной дискуссией о том, как именно следует регулировать искусственный интеллект.

В Китае государственные законы требуют, чтобы модели ИИ подчинялись строгим нормам модерации. Западные компании, такие как OpenAI и Meta, не обязаны следовать китайским стандартам, но они также вводят свои фильтры, исключая дезинформацию, экстремизм и токсичный контент. Где именно проходит граница между модерацией и цензурой ИИ? Это вопрос не только технологий, но и политики.

То, что сделала Perplexity AI, доказывает: благодаря открытому коду любая модель может быть изменена в ту или иную сторону. Теоретически в будущем могут появиться разные версии одного ИИ – одна с цензурой для Китая, другая без ограничений для международного рынка.

Но главный вопрос остается нерешённым: кто должен определять, что именно может говорить искусственный интеллект? В случае с R1 1776 это решили Perplexity AI. Однако если модель с открытым кодом, любой разработчик может изменить её снова – в любом направлении.

Будущее цензуры ИИ пока неясно, но одно можно сказать точно: Perplexity AI сделала первый шаг к тому, чтобы разговор об ограничениях ИИ стал действительно открытым.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *