С 28 сентября компания Anthropic вводит новые условия использования чат-бота Claude. Теперь переписки пользователей будут храниться до пяти лет и применяться для обучения моделей, если только человек сам не отключит эту функцию.
Новая политика хранения данных
До сих пор разработчик не использовал пользовательские диалоги для обучения искусственного интеллекта и не предлагал возможности отказа. Теперь в правилах появится флажок согласия, активированный по умолчанию.
Чтобы сохранить прежний режим работы, пользователи должны вручную отключить настройку. В этом случае данные будут удаляться через 30 дней, как и раньше. При желании можно стереть отдельные чаты, исключив их из будущих обучающих наборов.
Anthropic и долгосрочная стратегия обучения
Срок хранения информации увеличен: вместо 30 дней чаты, задействованные в тренировке, будут сохраняться на протяжении пяти лет. При изменении настроек или удалении аккаунта данные автоматически исключаются из обучения.
Важно, что изменения касаются только частных тарифов Claude Free, Pro, Max и Code. Корпоративные клиенты остаются вне этих правил: для Claude for Work, Claude for Education, API-доступа, а также сервисов Amazon Bedrock, Google Cloud Vertex и Claude Gov данные по-прежнему не будут использоваться в тренировках.
Зачем Anthropic пошла на изменения
Компания объясняет решение необходимостью повышения согласованности моделей. Разработка ИИ занимает годы, и использование стабильных наборов данных помогает избежать резких отличий в поведении новых версий. Таким образом, Anthropic стремится сделать Claude более предсказуемым и полезным инструментом для пользователей.

Савва Волков