Anthropic меняет правила хранения и обучения ИИ Claude

С 28 сентября компания Anthropic вводит новые условия использования чат-бота Claude. Теперь переписки пользователей будут храниться до пяти лет и применяться для обучения моделей, если только человек сам не отключит эту функцию.

Новая политика хранения данных

До сих пор разработчик не использовал пользовательские диалоги для обучения искусственного интеллекта и не предлагал возможности отказа. Теперь в правилах появится флажок согласия, активированный по умолчанию.

Чтобы сохранить прежний режим работы, пользователи должны вручную отключить настройку. В этом случае данные будут удаляться через 30 дней, как и раньше. При желании можно стереть отдельные чаты, исключив их из будущих обучающих наборов.

Anthropic и долгосрочная стратегия обучения

Срок хранения информации увеличен: вместо 30 дней чаты, задействованные в тренировке, будут сохраняться на протяжении пяти лет. При изменении настроек или удалении аккаунта данные автоматически исключаются из обучения.

Важно, что изменения касаются только частных тарифов Claude Free, Pro, Max и Code. Корпоративные клиенты остаются вне этих правил: для Claude for Work, Claude for Education, API-доступа, а также сервисов Amazon Bedrock, Google Cloud Vertex и Claude Gov данные по-прежнему не будут использоваться в тренировках.

Зачем Anthropic пошла на изменения

Компания объясняет решение необходимостью повышения согласованности моделей. Разработка ИИ занимает годы, и использование стабильных наборов данных помогает избежать резких отличий в поведении новых версий. Таким образом, Anthropic стремится сделать Claude более предсказуемым и полезным инструментом для пользователей.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *