Председатель КС подчеркнул, что наделение ИИ правосубъектностью влечет за собой противоречия и пробелы в праве, позволяющие избежать юридической ответственности виновному лицу за правонарушение, совершенное им в ходе разработки и эксплуатации соответствующих технологий
В ходе своей лекции на ПМЮФ-2024 Валерий Зорькин указал, что предстоит кропотливая работа по выстраиванию конституционно-правовых рамок для так называемого сильного искусственного интеллекта.
27 июня в рамках XII Петербургского международного юридического форума, председатель Конституционного Суда РФ Валерий Зорькин выступил с лекцией на тему: «Право и вызовы искусственного интеллекта».
Председатель КС РФ полагает, что без помощи искусственного интеллекта человечеству уже не справиться с обработкой накопленной цифровой информации. Уже сейчас искусственный интеллект способен осуществлять действия, ведущие к множеству социально и юридически значимых результатов. Вместе с тем, добавил спикер, ИИ на полных парах проникает в сферу юриспруденции. Разрабатываются платформы и цифровые инструменты, которые облегчают профессиональную деятельность за счет выполнения рутинных задач. Например: автоматизация типовых юридических услуг и онлайн-сервисы для клиентов с ботами; частичный переход правосудия в онлайн-сферу и разработка типовых решений на основе ИИ, включая конструкторы документов; сервисы проверки контрагента и системы поиска судебной практики, а также иной правовой информации.
Однако, подчеркнул Валерий Зорькин, в свете невиданных успехов ИИ не нужно забывать, что это совершенно иной тип интеллекта, коренным образом отличный от человеческого. Риски, объективно связанные с искусственным интеллектом, огромны.
Во второй части лекции председатель КС отметил вопрос о «личной правосубъектности ИИ». «Всё слышнее призывы наделить искусственный интеллект личными правами. Это огромной важности мировоззренческий вопрос, во многом связанный с настоящим и будущим человечества», − подчеркнул он.
Говоря о предложениях гарантировать искусственному интеллекту «право на свободу», Валерий Зорькин подчеркнул, что личными правами может обладать только «личность»: «Прежде чем наделять правосубъектностью некую неосязаемую сущность, ставя ее наравне с человеком, стоит вспомнить, что человек − существо социальное. Можем ли мы утверждать, что искусственный интеллект подобен человеку и обладает неотъемлемым от состояния субъектности в сфере права соответствующим набором практических навыков и стереотипов поведения в обществе, формируемым человеком в рамках всего спектра его социального взаимодействия? Отрицательный ответ на поставленный вопрос очевиден».
Как разъяснил председатель КС, статус искусственного интеллекта резонно обсуждать в контексте ответственности за ущерб, причиненный в результате его функционирования. Для привлечения искусственного интеллекта к ответственности нет никаких оснований по причине отсутствия субъективной стороны: вины внутреннего психического отношения к совершенному деянию, эмоций как душевного состояния в момент противоправного посягательства. «Предложения наделить робота правосубъектностью несостоятельны и потому, что робот не имеет обособленного имущества, принадлежащего на каком-либо вещном праве, из которого впоследствии может быть возмещен ущерб. Робот не способен самостоятельно отстаивать свои интересы, выступая ответчиком по иску потерпевшего (регрессному иску производителя или владельца)», − дополнил он.
Лектор считает, что нет смысла придумывать для программы наказание, негативные эмоции от которого она не будет переживать. Все, на что будет способна машина, закладывается в нее изначально человеком, т.е. ошибка системы − ошибка ее создателя. Он пояснил, что категория «правосубъектность» и вообще право − это продукты не просто человеческого сознания, а прежде всего самосознания человека. Человек создавал их, познавая на протяжении тысячелетий особенности своего социального поведения, во имя более благополучной коммуникации с себе подобными, исходя из только ему присущих потребностей, не исключая духовных и эмоциональных.
Валерий Зорькин отметил, что каждое следующее поколение прав возникало в качестве необходимого обеспечения прав, ранее уже признанных. В личной свободе заложены предпосылки предоставления прав, относящихся ко всем дальнейшим генерациям. Не исключая и прав политических. Следовательно, подчеркнул он, при предоставлении роботам личных прав в дальнейшем не будет веских причин отказывать им в предоставлении прав иных поколений, поскольку это было бы равносильно дискриминации и рабству.
По мнению председателя КС, признание искусственного интеллекта в качестве субъекта права вступает в неразрешимое противоречие едва ли не со всеми канонами правовой догматики, включая учения об автономной правовой воле, правоотношении, правонарушении и юридической ответственности. «У искусственного интеллекта нет и не может быть возможности и способности самостоятельно приобретать и реализовать субъективные права и юридические обязанности, нести юридическую ответственность, самостоятельно принимать правовые решения, у него нет собственных правовых интересов. Наделение же его личной правосубъектностью влечет за собой обширнейшие противоречия и пробелы в праве, позволяющие избежать юридической ответственности виновному лицу за правонарушение, совершенное им в ходе разработки и эксплуатации соответствующих технологий», − указал он.
«Возможно ли оцифровать человечность, любовь, эмпатию − все то, что слагает нашу идентичность? Отвечаю: нет. А потому мыслительный процесс искусственного интеллекта никогда не будет подобен человеческому», − считает Валерий Зорькин. Как подчеркнул председатель КС, для того чтобы обладать дееспособностью и самостоятельно реализовывать личные права, требуется набор психических свойств. Их отсутствие у искусственного интеллекта хотя и не аксиома, но неопровержимая презумпция. В противном случае, ввиду громадных и принципиально непредсказуемых рисков для человечества, искусственный интеллект просто не имел бы право на существование.
Говоря о миражах трансгуманизма, Валерий Зорькин подчеркнул, что главной проблемой является не столько искусственный интеллект как особый источник повышенной опасности, но и идея его наделения личным статусом, что называется трансгуманизмом. Он пояснил, что трансгуманизм втягивает в неконтролируемую гонку человеческого и искусственного интеллектов, полностью высвобожденных от всего, что составляет «высокую метафизику» человеческого духа. Кроме того, не учитывается взаимосвязь между технологическими разработками и той самой культурной средой, в которой они возникают и которую они отражают − создавая, в свою очередь, новую динамику.
Председатель КС отметил, что моделирование статуса искусственного интеллекта инспирировано корпорациями, алчущими сверхприбылей при полной безответственности. «Большое беспокойство вызывает не только создание киберсущностей, похожих на нас (искусственный интеллект), но и еще больше стремление сделать человека схожим с машиной (кредо трансгуманизма), − поделился Валерий Зорькин. − Устранение национальной самобытности, вызванное вторжением технологий, воспринимается как неизбежность. Искусственный интеллект и его внедрение могут фатально изменить представление людей о самих себе, привести к распаду человеческой идентичности».
Председатель КС отметил, что трансгуманизм оспаривает непререкаемые для классического гуманизма истины, согласно которым: природа человека является венцом творения, будучи универсальным состоянием, вне и помимо которого невозможно существование личности; природа человека целостна, автономна, рациональна и предполагает свободу воли. А права человека существуют для трансгуманиста в одном спектре с правами животных и уступают по своему значению правам грядущего постчеловека. По существу трансгуманизм в конечных своих выводах означает самопрекращение человечества как биологического вида.
Далее Валерий Зорькин коснулся вопроса правовых перспектив. «Ответ на технологические сверхвызовы очевидно не в том, чтобы позволить искусственному интеллекту разгуляться и в конечном счете высвободиться из-под контроля создателя-человека. И не в том, чтобы нам самим стать киборгами, т.е. частично машинами, дабы иметь возможность подключаться к искусственному интеллекту и устремляться вслед за ним, куда бы он нас ни вел. И не в том, чтобы наделить искусственный интеллект личными правами. Ведь все это создает предельно комфортные условия для антигуманного и аморального трансгуманистического будущего без человека», − считает он.
По мнению лектора, нужно исходить с позиций права, встречая не только будущее, но и настоящее, уже пронизанное искусственным интеллектом. Искусственный интеллект не является носителем критически важных составляющих личности: души, свободного сознания, чувств, интенциональности, личных интересов. Поэтому, пояснил председатель КС, несмотря на сверхмощную скорость обработки информации, в разы превосходящую возможности человека, искусственный интеллект остается программой с привязанным к ней материально техническим обеспечением. «Постановка вопроса о сколько-нибудь автономной правосубъектности искусственного интеллекта не то что преждевременна, но, будучи своего рода троянским конем трансгуманизма, в конституционно-правовом плане принципиально неприемлема», − считает Валерий Зорькин.
Моделирование правового статуса искусственного интеллекта должно базироваться на двух краеугольных принципах. Во-первых, на принципе защиты прав и свобод человека, в том числе права на труд, а также создание благоприятных условий для адаптации человека, не отягощенного специальными инновационными компетенциями, к цифровой экономике. Во-вторых, на принципе безопасности через противодействие противоправному использованию искусственного интеллекта, а также предупреждение рисков негативных последствий даже правомерного использования соответствующих технологий, полагает председатель КС.
Валерий Зорькин указал, что величайшее достижение человеческой цивилизации − право − не должно низводиться до уровня «подпорок» трансгуманистических проектов. По его мнению, предстоит кропотливая работа по выстраиванию конституционно-правовых рамок для так называемого сильного искусственного интеллекта, исходя в первую очередь из незыблемости человеческой идентичности и безопасности человечества.
Подпишитесь на наш Telegram и будьте в курсе всех новостей 📲
Подписаться Telegram 🔔