Робот с весами правосудия на фоне большого города.

В последние годы искусственный интеллект стал неотъемлемой частью нашей жизни: он контролирует финансовые системы, автоматизирует производство, анализирует большие данные и даже формирует наши предпочтения в социальных сетях. В ответ на эти технологические изменения многие международные организации и правительства разработали так называемый кодекс этики ИИ, призванный обезопасить общество от негативных последствий. Однако, насколько он эффективен и реальны ли обещанные меры защиты?

Что такое кодекс этики ИИ и зачем он нужен?

Кодекс этики искусственного интеллекта — это набор принципов, нацеленных на обеспечение справедливого и прозрачного использования ИИ. Эти документы обычно содержат рекомендации, касающиеся непредвзятости, недопущения дискриминации, защиты прав человека и прозрачности алгоритмов.

Кодексы этики ИИ разрабатываются различными организациями, и несколько крупных инициатив уже предложили свои версии:

  1. ЮНЕСКО: В ноябре 2021 года ЮНЕСКО приняла первый глобальный нормативный документ о разработке и применении ИИ — Рекомендации по этике ИИ. Этот документ стал одним из первых глобальных руководств, утверждённых на международном уровне.
  2. Европейская комиссия: В 2019 году была опубликована Хартия по этике ИИ, разработанная Европейской комиссией. Она включает принципы обеспечения прозрачности, справедливости, надежности и защиты прав человека при использовании ИИ.
  3. IEEE (Institute of Electrical and Electronics Engineers): IEEE, одна из крупнейших мировых организаций в области технических стандартов, также активно участвует в разработке этических норм для ИИ. Они создали глобальный проект под названием Этические аспекты автономных и интеллектуальных систем (Ethically Aligned Design, EAD). Этот документ, впервые опубликованный в 2016 году, содержит рекомендации для инженеров и разработчиков, которые стремятся создать справедливые, прозрачные и безопасные системы ИИ.IEEE стремится учитывать интересы всех сторон — от разработчиков до конечных пользователей. Основной акцент делается на социальные и культурные последствия внедрения ИИ, а также на важность соблюдения прав и свобод человека. В документе подчеркивается необходимость избегать предвзятости и дискриминации при разработке алгоритмов и систем.
  4. ОЭСР (Организация экономического сотрудничества и развития): Еще одна важная международная инициатива — это Принципы ИИ, предложенные ОЭСР в 2019 году. Эти принципы призваны гарантировать, что системы ИИ будут разрабатываться и использоваться для всеобщего блага, а также с уважением к демократическим ценностям и правам человека. Они также подчеркивают необходимость ответственности разработчиков и пользователей ИИ за последствия их применения. ОЭСР ставит перед собой цель сделать ИИ надежным инструментом для обеспечения устойчивого экономического развития.

А что в России?

В России также существует Кодекс этики в сфере искусственного интеллекта, принятый в 2021 году. Этот документ разработали Министерство экономического развития РФ и такие компании, как Сбербанк, Яндекс и МТС. Основной фокус — на обеспечении прозрачности, защите данных и недопущении дискриминации.

Однако, как и многие подобные документы, российский Кодекс этики ИИ носит рекомендательный характер. Это вызывает критику со стороны экспертов, которые указывают на то, что добровольное соблюдение этических норм не гарантирует их реального внедрения, особенно в условиях коммерческой конкуренции. Важно, чтобы такие нормы стали обязательными, а не просто декларацией намерений.

Однако, несмотря на все благие намерения, эти кодексы сталкиваются с серьёзными критическими проблемами, которые ставят под сомнение их практическую применимость и эффективность.

Изъяны и слабые места: что стоит за этическими кодексами?

Ложное чувство безопасности

Главная проблема с кодексами этики в том, что они создают иллюзию безопасности, не предлагая реальных механизмов защиты. Большинство из них не обладают юридической силой и остаются лишь рекомендательными документами. Возникает парадокс: компании и правительства публично заявляют о своей приверженности этическим стандартам, но на практике могут игнорировать их приоритеты ради прибыли.

Например, Facebook несколько раз подвергался критике за использование ИИ для продвижения контента, способствующего разжиганию конфликтов. Хотя компания публично заявляет о следовании этическим стандартам, её алгоритмы продолжают продвигать сенсационные и провокационные материалы, что ставит под вопрос реальные намерения корпорации.

Неэффективные механизмы контроля

Кодексы этики часто не содержат чётких механизмов мониторинга и контроля за соблюдением правил. Они предлагают только абстрактные принципы, но не уточняют, как их следует применять. Например, ЮНЕСКО называет «устойчивое развитие» одной из целей своего кодекса  этики ИИ, но не даёт конкретных методов для её достижения. В результате компании могут утверждать, что следуют этическим нормам, но в реальности не принимать никаких конкретных мер.

Это напоминает ситуацию с Amazon, где ИИ-система для отбора резюме оказалась предвзятой и дискриминировала женщин. Несмотря на обязательства компании по соблюдению этических норм, внутренние алгоритмы оказались настроены в пользу мужчин-кандидатов, что вызвало серьёзную волну критики. Это говорит о том, что без реальных механизмов контроля такие принципы остаются на бумаге.

Отсутствие транспарентности алгоритмов

Одним из главных недостатков современных кодексов является закрытость алгоритмов ИИ. Даже если разработчики заявляют о своей приверженности этическим нормам, они редко предоставляют общественности доступ к исходному коду или алгоритмам. Это означает, что никто, кроме самой компании, не может проверить, действительно ли ИИ соблюдает этические стандарты.

Например, исследование Нортвестернского университета показало, что системы машинного обучения в судебной системе США демонстрируют систематические предвзятости против афроамериканцев. Хотя разработчики таких систем утверждают, что ИИ разработан на основе этических принципов, закрытость данных и алгоритмов не позволяет внешним экспертам это подтвердить.

Многообразие культурных и социальных контекстов

Этические кодексы часто разрабатываются на международном уровне, что вызывает проблемы при применении в разных странах с учётом культурных и социальных различий. Что считается нормой и справедливым в одной стране, может быть воспринято как угроза в другой. Например, в Китае кодекс этики ИИ акцентируется на защите интересов государства и его безопасности, что значительно отличается от приоритетов Европейского Союза, где на первый план выходят права человека и защита данных. Это ведёт к тому, что единый стандарт невозможно установить, а реализация принципов этики варьируется в зависимости от конкретных условий.

Риски манипуляции

Один из самых критичных изъянов — это возможность манипулирования кодексами этики для достижения собственных целей. Компании могут использовать кодексы как инструмент маркетинга, прикрываясь этическими принципами, чтобы повысить свою репутацию в глазах общественности, не меняя реальной практики.

Так, Clearview AI, компания, известная своими технологиями распознавания лиц, заявляла, что её работа основана на строгих этических принципах, но позже стало известно, что она использовала фотографии миллионов людей без их ведома для обучения своих систем. Несмотря на заявления о приверженности этике, практика компании была противоположной.

Реальные последствия: где этика не работает

Uber, использующий ИИ для управления своим парком автомобилей, также столкнулся с критикой после того, как было выяснено, что его алгоритмы могли дискриминировать водителей, заставляя их работать в условиях, которые нарушают этические нормы и права работников. Несмотря на этические обязательства компании, её алгоритмы часто игнорировали права водителей.

Ещё один пример — использование алгоритмов в правоприменении. В США несколько городов внедрили ИИ для прогнозирования преступлений. Однако системы оказались предвзятыми и направляли больше полицейских ресурсов в бедные и неблагополучные районы, что усиливало социальное неравенство. Это вызвало волну протестов, и эксперты начали серьёзно обсуждать необходимость пересмотра кодексов этики для таких систем.

Кодексы этики в сфере искусственного интеллекта, безусловно, являются важным шагом на пути к созданию более справедливого и безопасного будущего. Однако их нынешнее состояние оставляет много вопросов. Без реальных механизмов контроля, прозрачности алгоритмов и учёта культурных различий они больше напоминают символические декларации, чем действенные инструменты защиты. Более того, в некоторых случаях эти кодексы могут служить прикрытием для манипуляций и уклонения от ответственности.

Чтобы сделать эти кодексы более эффективными, необходимо ввести жёсткие механизмы контроля за соблюдением этических норм, обеспечить прозрачность разработки ИИ, а также учитывать культурные и социальные особенности разных регионов. Только так мы сможем гарантировать, что ИИ будет служить во благо, а не становиться инструментом дискриминации и манипуляции.

Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲

Подписаться Telegram 🔔

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *