ЕС представила кодекс регулирования ИИ, изменяющий глобальный подход.

Европейская комиссия представила новый Кодекс поведения, который кардинально изменит регулирование ИИ. Это не просто рекомендации, а основа для глобальной перестройки надзора над технологиями, к которой должны будут адаптироваться даже такие гиганты, как OpenAI и Google

В чем ключевая особенность? Впервые компании вынуждены предоставлять свои модели для независимого тестирования, что знаменует серьезный шаг в сторону прозрачности и подотчетности разработчиков ИИ.

Регулирование ИИ — новая структура надзора

Еврокомиссия разработала систему регулирования, которая сосредоточена на так называемых «системах с системным риском». Речь идет о моделях с вычислительными мощностями выше 10^25 FLOP — как, например, GPT-4.

Теперь компании обязаны уведомлять о своих планах по обучению ИИ за две недели до его начала. Центром этой новой системы стали два документа:

  1. Рамки безопасности (SSF) — инструкция по управлению рисками на всех этапах разработки и использования ИИ.
  2. Отчет о безопасности (SSR) — документ для детального описания каждой модели.

Обязательное внешнее тестирование

Особое внимание уделено моделям с высоким риском. Комиссия требует их обязательного внешнего тестирования независимыми экспертами и Управлением ЕС по искусственному интеллекту. Это больше не внутренняя проверка, а полноценный аудит системы.

Для таких компаний, как OpenAI или Google, это становится вызовом: они обязаны предоставлять доступ к своим технологиям перед их запуском. В документе подчеркивается, что такие тесты должны проводиться «до развертывания систем».

Кто будет проводить такие проверки? Управление ЕС войдет в неизведанную территорию, привлекая специалистов, способных оценивать сложнейшие технологии, оставаясь при этом в рамках строгой конфиденциальности.

Уважение авторских прав

ЕС уделяет серьезное внимание защите интеллектуальной собственности. Компании ИИ теперь должны учитывать ограничения, заданные стандартом robots.txt. Если сайт запрещает доступ через этот файл, использование его контента для обучения систем ИИ запрещено.

Помимо этого, компании обязаны избегать данных с пиратских ресурсов, опираясь на «Список наблюдения за контрафактом и пиратством» ЕС.

Регулирование ИИ, а что дальше?

Новые правила ЕС создают принципиально иной подход к разработке и использованию искусственного интеллекта. Теперь разработчики должны:

  1. Планировать внешние аудиты на этапе проектирования моделей.
  2. Соблюдать стандарты защиты авторских прав.
  3. Внедрять детализированную документацию для каждой системы.

Эти меры могут радикально изменить всю индустрию. ЕС движется быстро, привлекая к процессу сотни заинтересованных сторон. Это значит, что дни «быстрого движения с исправлением по пути» для компаний ИИ подходят к концу.

На карту поставлено многое: открытость систем, поиск альтернативных решений для соблюдения правил или же отказ от работы на европейском рынке. Реализация этих инициатив уже началась, и ее влияние обещает стать глобальным.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *