Китай стремится в лидеры на рынке ИИ и изобретает защиту от его злонамеренного использования

Фото: iStock
Фото: iStock

Запустив собственный продукт на основе ИИ вдогонку за ChatGPT, Китай закрыл двери для иностранных производителей и занялся разработкой систем безопасности в этой сфере. Опыт Поднебесной в формировании индустрии продуктов на основе искусственного интеллекта обсудили на конференции Высшей школы экономики «Искусственный интеллект и общество» (Artificial Intelligence and Society, AIS).

С докладом «Злонамеренное использование искусственного интеллекта: текущие и перспективные угрозы информационно-психологической безопасности в Китае» выступила выпускница аспирантуры факультета международных отношений СПбГУ Екатерина Михалевич. Популярность ChatGPT спровоцировала настоящую гонку среди компаний, занимающихся разработкой продуктов на основе искусственного интеллекта. Например, Microsoft пытается интегрировать эту технологию в свои продукты, Google поспешил запустить аналогичный продукт под названием Bard. Не отстают и китайские технологические гиганты. Так, своего собственного бота в марте этого года запустил ведущий китайский инвестор в индустрии искусственного интеллекта Baidu.

При этом ChatGPT и другие иностранные чаты китайские власти активно блокируют. Таким образом регуляторы предоставляют отечественным технологическим компаниям поддержку в разработке собственных продуктов.

 Екатерина Михалевич

«В Белой книге развития пекинской индустрии искусственного интеллекта за 2022 год, которая была выпущена 13 февраля текущего года, декларируется цель по укреплению основы для развития искусственного интеллекта к 2024 году, в том числе путем поддержки ведущих китайских предприятий в создании технологий наподобие ChatGPT», — рассказала Екатерина Михалевич.

Кроме того, в стране разрабатываются цифровые продукты, которые могут противостоять угрозе злонамеренного распространения ложного контента, созданного искусственным интеллектом. Так, в начале марта этого года запущена бета-версия первого китайского инструмента по поиску подобного контента. Этот продукт позволяет обнаружить фейк-ньюс и спам, которые были созданы на основе технологии ИИ, с точностью до 90%. Он обладает широкими перспективами применения в области обеспечения безопасности контента и защиты авторского и интеллектуального права, подчеркнула автор доклада.

На китайском рынке присутствуют и другие компании, работающие на обеспечение безопасности в сфере развития искусственного интеллекта и контроля контента, созданного на его основе. Одна из них создала приложение, позволяющее генерировать контент на основе ИИ, а также программу, выявляющую подобный контент, на основе алгоритмов собственной разработки. Другая ведущая компания в области медиабезопасности разрабатывает умные решения для построения процесса обучения на основе технологии ИИ в учебных заведениях. Эти продукты позволяют повысить общий уровень осведомленности и углубить человеческие компетенции распознавания контента, сгенерированного искусственным интеллектом.

В Белой книге, опубликованной в прошлом году, приведены сценарии применения искусственного интеллекта в медиа и e-commerce, в индустрии развлечений, кино и на телевидении, а также в сфере промышленной модернизации. Целый раздел посвящен проблемам, с которыми сталкивается развитие этого направления. «Главной проблемой, которую отмечают эксперты, является отсутствие развития системы регулирующих нормативно-правовых актов. Значит, работа в сфере ответственности и безопасности использования подобного контента будет только усиливаться», — считает докладчица.

Екатерина Михалевич рассказала о еще одной угрозе — возможности ведения когнитивной войны с использованием ИИ. По ее словам, в последние десятилетия наблюдается тенденция ведения так называемых гибридных войн, когда конфликтующие стороны не прибегают к классическим боевым действиям, а используют другие способы, в том числе в киберсреде. Большое внимание уделяется когнитивной войне, то есть борьбе за изменение сознания и поведения человека. Чтобы уметь отражать такую угрозу, китайские эксперты предлагают сосредоточиться на когнитивных пробелах и использовать технологии искусственного интеллекта в области больших данных для оценки ментальных и поведенческих моделей, для анализа и контроля информации, которую потребляет человек. Предлагается использовать ИИ также и в наступательных операциях, вторжении в центр принятия решений противника, расшатывании его позиции с помощью когнитивного вмешательства, в системах разведки и раннего предупреждения.

Фото: iStock

«Китайские эксперты отмечают, что освоение технологий искусственного интеллекта и использование таких технологий в военной сфере — это беспрецедентная историческая возможность для китайского общества, которая выпадает раз в жизни, поэтому ею необходимо воспользоваться для решения исхода возможных будущих войн», — отметила Екатерина Михалевич.

Чтобы преуспеть в этом направлении, необходимо, во-первых, ускорить создание тактических баз данных на основе искусственного интеллекта, которые будут обеспечивать поддержку когнитивным наступательным и оборонительным действиям. Во-вторых, необходимым условием является ускорение создания эффективных каналов медиакоммуникации, чтобы преодолеть существующие барьеры информационного взаимодействия. И в-третьих, необходимо сосредоточиться на ускорении сопряжения между когнитивными и информационными операциями: необходимо развивать технологии искусственного интеллекта для анализа междисциплинарной и разнородной когнитивной информации.

Таким образом, технологии искусственного интеллекта, создаваемые в целях ускорения технологического прогресса, становятся оружием в сфере общественного восприятия и в политике. По мнению Екатерины Михалевич, экспертам стоит выработать инструменты и протоколы предупреждения подобных угроз, а также научиться эффективно и своевременно реагировать на них.

Дата публикации: 05.07.2023

Автор: Марина Полякова

Будь всегда в курсе !
Подпишись на наши новости: