Искусственный интеллект с европейским акцентом

Фото: iStock
Фото: iStock

Принятая Советом Европы Рамочная конвенция об искусственном интеллекте, правах человека, демократии и верховенстве права призвана создать общие принципы регламентации искусственного интеллекта. Рамочный подход обеспечивает гибкость применения Конвенции и, возможно, расширит круг ее участников, но одновременно размывает их обязательства и оставляет пространство для расширительного толкования. Тем не менее отдельные положения Конвенции возможно использовать в разработке нормативного регулирования применения ИИ в России и других странах.

24 мая 2024 года Совет Европы принял Рамочную конвенцию об искусственном интеллекте и правах человека, демократии и верховенстве права (далее — Конвенция). Она призвана создать общие принципы регламентации искусственного интеллекта (ИИ), выходящей за рамки регулирования ИИ как технологии. Документ закрепляет основные права человека на всех этапах проектирования, разработки и применения систем ИИ. 

5 сентября 2024 года Конвенцию подписали Европейский союз, США, Великобритания, Израиль, Норвегия, а также Грузия, Молдова и ряд других стран, к ней могут присоединиться и новые участники. Предполагается, что подписавшие Конвенцию государства примут законодательные и иные меры для имплементации ее норм.

Преподаватель департамента международного права факультета права НИУ ВШЭ Екатерина Мартынова, научный сотрудник департамента Дарья Штодина и аспиранты аспирантской школы по праву факультета права Вышки Артем Евсеев и Сергей Сушков изучили документ и представили результаты своего анализа в статье «Комментарий к Рамочной конвенции об искусственном интеллекте и правах человека, демократии и верховенстве права», опубликованной в Журнале ВШЭ по международному праву. 

Авторы отмечают: Конвенция разработана для обеспечения соблюдения прав человека, верховенства права и правовых стандартов демократии на всех этапах проектирования, разработки и применения систем ИИ. Принятие документа предполагает внедрение рамочного нормативно-правового регулирования, отвечающего новым вызовам, возникающим перед международным сообществом и отдельными государствами вследствие развития ИИ, в частности, в сфере функционирования институтов демократии, защиты прав и свобод, преодоления социального неравенства, порождаемого применением отдельных компьютерных программ.

Фото: iStock

Авторы обращают внимание, что Конвенция раскрывает термин «система ИИ» — «машинная система, которая по явным или неявным целям определяет на основе полученных входных данных, как генерировать выходные данные, включая прогнозы, контент, рекомендации или решения, которые могут влиять на физическую или виртуальную среду», — корректно отмечая, что системы отличаются по уровню автономности и адаптивности после развертывания. Она воспроизводит широкий подход к определению системы ИИ, основанный на способности систем к самообучению и генерированию контента.

При этом из сферы действия Конвенции исключена деятельность, связанная с национальной обороной, поэтому обязательства ее участников не распространяются на действия по разработке и применению искусственного интеллекта в военных целях.

Предполагается, что страны-участницы примут законодательные, административные и/или иные меры, необходимые для соблюдения положений Конвенции органами власти и частными субъектами, действующими от их имени. При регулировании деятельности частных лиц, действующих не от имени государства, стороны могут распространить нормы Конвенции на частный сектор или принять иные меры управления рисками применения систем ИИ частными лицами, чтобы это соответствовало ее целям. «Такая “развилка” в методах регулирования деятельности частного сектора представляется не вполне удачной, создает существенную асимметрию в объеме обязательств государств в зависимости от выбранного варианта», — отмечают эксперты Вышки.

Прямое регулирование вероятного влияния систем ИИ на демократические процессы и принцип верховенства права предусмотрено статьей 5 Конвенции. Согласно ей государства обязаны принять и поддерживать меры недопущения применения ИИ для нарушения целостности, независимости и эффективности демократических институтов и процессов, в частности разделения властей, независимости судебной власти и доступа к правосудию. При разработке систем ИИ страны обязаны принимать и меры, направленные на защиту равных возможностей граждан участвовать в публичной дискуссии, а также свободно формировать собственное мнение. В Конвенции нет четкого различия между правилами, ориентированными на защиту демократических процессов и институтов, и нормами защиты верховенства права, они рассматриваются во взаимной связи. 

В пояснительной записке, позволяющей лучше уяснить идеи Конвенции, перечислены сценарии негативного воздействия систем ИИ на демократию и верховенство права: возможность их использования для распространения дезинформации, в том числе создания дипфейков, или для установления незаконной слежки за гражданами. Такое применение ИИ может нанести ущерб избирательному процессу, ограничить свободу слова и собраний, подорвать доверие между гражданами и государством, привести к дискриминационным практикам, повлиять на независимость и беспристрастность суда и его эффективность. 

Основные обязательства участников и исключения из правил

Использование в Конвенции ряда «защитных оговорок» определяет ее рамочный характер. Конвенция предусматривает, что государства-участники исполняют свои обязательства в той части, в которой они не противоречат национальной правовой системе. Обязательства государств сформулированы скорее как «мягкие» цели, нежели обязательства результата. Такой подход, полагают авторы, обеспечивает гибкость применения Конвенции и, вероятно, стимулирует расширение круга ее участников, но одновременно размывает содержание обязательств и создает обширное пространство для толкования норм. При этом возможное смещение баланса между нормативностью и определенностью в сторону первой приведет к непоследовательности практики и, как следствие, к политизации регулирования. Например, обязательство сторон принять меры для защиты демократических процессов в рамках жизненного цикла систем ИИ, включая возможность для граждан свободно формировать свое мнение, может быть противоположно реализовано в государствах с разными подходами к регулированию деятельности соцсетей.

Подписавшие Конвенцию страны должны также принять меры для уважения равенства (включая гендерное) в системах ИИ, соблюдения права на неприкосновенность частной жизни и запрета дискриминации, причем реализация данных обязательств предполагается с учетом норм международного и национального права. Представляется, что их действительное наполнение в государствах может существенно различаться — в частности, в основаниях допустимых ограничений права на уважение частной жизни и в обеспечении гендерного равенства. «Можно предположить, что выбор и калибровка инструментов, заложенных в Конвенции, и их имплементация в национальном регулировании ИИ будут предопределяться особенностями политического режима государств-участников», — полагают комментаторы. 

Фото: iStock

Участники Конвенции также обязаны обеспечить доступность средств правовой защиты для лиц, чьи права человека нарушались при использовании систем ИИ. Базовыми процессуальными гарантиями защиты прав человека при взаимодействии с системами названы: уведомление лиц о вступлении их во взаимодействие с ИИ, документирование информации об использовании систем ИИ, потенциально нарушающих права человека, и возможность для заинтересованных лиц получить доступ к такой информации и подать жалобу в компетентный орган государства. Однако подход, применяемый для определения, были ли нарушены права заявителей, оставляет пространство для применения разных моделей. Конвенция задает лишь общий вектор, гарантируя наличие средства правовой защиты.

Стороны Конвенции освобождаются от соблюдения принятых обязательств в деятельности по защите интересов национальной безопасности при условии соблюдения норм международного права, в том числе обязательств в области прав человека, и при уважении демократических институтов и процессов. Мотивы такого исключения понятны, но они создают опасность его расширительного применения государствами без пояснения причин такого исключения. Конвенция также не ограничивает участников в проведении научно-исследовательских работ в области ИИ, если тестирование систем ИИ не влечет рисков для прав человека, демократии и верховенства права.

Рамочный характер Конвенции повлиял на формулировки обязательств государств, оставляя за ними широкие дискреционные полномочия по ее имплементации. Также значительная свобода усмотрения в имплементации позволяет им самим определять, в каком объеме договор будет распространен на разработку и использование систем ИИ в частном секторе.

Конвенцией предусмотрено несколько механизмов содействия государствам в исполнении обязательств. Статья 23 учреждает Конференцию государств-участников, созываемую по мере необходимости Генсеком Совета Европы или по требованию большинства государств-членов или Комитета министров Совета Европы. Статья 24 устанавливает обязанность представлять Конференции государств-участников отчет о действиях по имплементации Конвенции, который следует представить в течение первых двух лет после ее подписания, а затем периодически. Наконец, статья 26 Конвенции требует создать эффективные механизмы надзора за соблюдением принятых странами обязательств. В пояснительной записке к ней указано, что надзор можно реализовать, создав отдельный государственный орган или передав полномочия по контролю за исполнением Конвенции существующей структуре.  

Сравнение Конвенции и Акта Европейского союза об ИИ

Авторы также сравнили нормы Конвенции и принятого в июле 2024 года Акта Европейского союза (ЕС) об искусственном интеллекте (далее — Акт), содержащего более детальное регулирование деятельности с использованием ИИ. 

Эксперты отмечают: Акт, в отличие от Конвенции, — документ прямого действия, создающий конкретные права и обязанности участников рынка на территории всего Европейского союза и действующий непосредственно на территории всех государств — членов ЕС. Цели Акта шире, чем Конвенции, и включают сохранение единого рынка ЕС при распространении товаров и услуг, использующих ИИ. Цель Акта — сохранить инновационное развитие, предотвращая негативные последствия использования ИИ-технологий для защиты здоровья, безопасности и основных прав человека.

Акт прямо определил сферу своего действия и распространяется экстерриториально на собственников, разработчиков и коммерческих пользователей ИИ-систем, их дистрибьютеров и импортеров в ЕС, а также на любых лиц, находящихся в ЕС, на которых влияет ИИ.

Фото: iStock

Акт ЕС запретил вывод на рынок, ввод в эксплуатацию или использование ИИ, применяющего манипулятивные или обманные методы; применение ИИ, эксплуатирующего уязвимости людей, связанные с инвалидностью, возрастом или социально-экономической ситуацией; применение ИИ для оценки или классификации людей на основе их социального поведения или личных характеристик; создание или расширение баз данных распознавания лиц через нецеленаправленное извлечение изображений из интернета или камер видеонаблюдения; применение биометрических систем для категоризации людей по биометрическим данным с целью установления их расы, политических взглядов, религиозных убеждений, сексуальной ориентации и т.п., кроме случаев обеспечения безопасности; использование систем биометрической идентификации в реальном времени в общественных местах для целей правоприменения, кроме случаев предотвращения серьезных угроз, поиска пропавших или преступников.

Акт также разделил ИИ-системы на категории: высокорисковые, общие языковые модели и все остальные. К первым относятся системы для помощи в трудоустройстве, оценки уровня знаний учащихся, анализа человеческих эмоций, биометрической идентификации и т. п. Их владельцы должны создать эффективный механизм управления рисками на весь жизненный цикл системы (от разработки до поддержки пользователей). Акт требует, чтобы информация, на основе которой обучается ИИ-алгоритм, соответствовала стандартам качества (например, была репрезентативной). Работу высокорисковых систем также должен постоянно контролировать человек, а информация о работе должна быть доступна пользователям. В ряде случаев владельцам таких систем необходимо пройти техническую сертификацию.

Акт закрепляет механизм юридической ответственности: согласно его статье 99 государства-члены обязаны установить конкретные санкции за нарушения его норм, в том числе административные штрафы в пределах до 15 млн евро или до 3% размера общемировой выручки, предусмотрев основания снижения сумм штрафов при наличии смягчающих обстоятельств.

Акт ЕС — один из ярких примеров детального регулирования ИИ. Он направлен на сохранение общего рынка ЕС и защиту фундаментальных прав человека и гражданина. Основное внимание уделено ИИ-системам, несущим наибольший риск для человека и общества.

Использование в Акте ЕС и в Конвенции модели, основанной на правах человека, имеет существенный изъян: расширяя сферу их применения, они не предусматривают конкретных материально-правовых норм, позволяющих трансформировать содержание разделов международного права, рассчитанных на государства, на частных акторов. Внутренняя структура и природа этих конструкций не позволяют применять их без надлежащей адаптации по аналогии к частным субъектам, прежде всего — коммерческим компаниям. «Без необходимых изменений ссылка на соблюдение прав человека останется не более чем декларацией», — подчеркивают авторы.

Возможности для России

Конвенция налагает обязательства только на государства, которые выразили согласие на ее обязательность, и не содержит каких-либо норм, распространяющихся на государства, не являющиеся ее участниками. 

Вопрос о присоединении Российской Федерации к Конвенции в ближайшее время едва ли будет актуален. Однако, по мнению ученых, двухлетний опыт работы Комитета по ИИ над текстом Конвенции и ее отдельные пункты стоит учитывать при подготовке нормативного регулирования деятельности с использованием искусственного интеллекта. Они считают: прозрачность, надежность, анализ рисков, подотчетность и ответственность за негативные последствия должны стать важнейшими принципами деятельности органов государства и частных лиц в рамках жизненного цикла систем ИИ. Гарантии в сфере информирования граждан, предусмотренные Конвенцией, также могут быть восприняты отечественным правом. Например, в форме возможного маркирования контента, созданного системой ИИ, а также информирования человека об осуществлении взаимодействия с системой ИИ (в частности, когда потребитель получает услуги через телефонный звонок). Наконец, анализ нового опыта стран — участниц Конвенции по обеспечению средств правовой защиты граждан, чьи права нарушены при использовании систем ИИ, может быть полезен для совершенствования национального законодательства в чувствительных для защиты личных прав областях — например, при использовании систем распознавания лиц.

Конвенция воплощает «мягкую» модель международно-правового регулирования сферы искусственного интеллекта, оставляя за государствами существенные дискреционные полномочия и не предусматривая строгой системы контроля за ее исполнением. «Представляется, что данная модель могла бы быть рассмотрена для целей разработки аналогичных международных правовых инструментов на площадках БРИКС, ШОС и/или ЕАЭС», — резюмируют авторы исследования.

Дата публикации: 05.02.2025

Автор: Павел Аптекарь

Будь всегда в курсе !
Подпишись на наши новости: