Запустив собственный продукт на основе ИИ вдогонку за ChatGPT, Китай закрыл двери для иностранных производителей и занялся разработкой систем безопасности в этой сфере. Опыт Поднебесной в формировании индустрии продуктов на основе искусственного интеллекта обсудили на конференции Высшей школы экономики «Искусственный интеллект и общество» (Artificial Intelligence and Society, AIS).
С докладом «Злонамеренное использование искусственного интеллекта: текущие и перспективные угрозы информационно-психологической безопасности в Китае» выступила выпускница аспирантуры факультета международных отношений СПбГУ Екатерина Михалевич. Популярность ChatGPT спровоцировала настоящую гонку среди компаний, занимающихся разработкой продуктов на основе искусственного интеллекта. Например, Microsoft пытается интегрировать эту технологию в свои продукты, Google поспешил запустить аналогичный продукт под названием Bard. Не отстают и китайские технологические гиганты. Так, своего собственного бота в марте этого года запустил ведущий китайский инвестор в индустрии искусственного интеллекта Baidu.
При этом ChatGPT и другие иностранные чаты китайские власти активно блокируют. Таким образом регуляторы предоставляют отечественным технологическим компаниям поддержку в разработке собственных продуктов.
«В Белой книге развития пекинской индустрии искусственного интеллекта за 2022 год, которая была выпущена 13 февраля текущего года, декларируется цель по укреплению основы для развития искусственного интеллекта к 2024 году, в том числе путем поддержки ведущих китайских предприятий в создании технологий наподобие ChatGPT», — рассказала Екатерина Михалевич.
Кроме того, в стране разрабатываются цифровые продукты, которые могут противостоять угрозе злонамеренного распространения ложного контента, созданного искусственным интеллектом. Так, в начале марта этого года запущена бета-версия первого китайского инструмента по поиску подобного контента. Этот продукт позволяет обнаружить фейк-ньюс и спам, которые были созданы на основе технологии ИИ, с точностью до 90%. Он обладает широкими перспективами применения в области обеспечения безопасности контента и защиты авторского и интеллектуального права, подчеркнула автор доклада.
На китайском рынке присутствуют и другие компании, работающие на обеспечение безопасности в сфере развития искусственного интеллекта и контроля контента, созданного на его основе. Одна из них создала приложение, позволяющее генерировать контент на основе ИИ, а также программу, выявляющую подобный контент, на основе алгоритмов собственной разработки. Другая ведущая компания в области медиабезопасности разрабатывает умные решения для построения процесса обучения на основе технологии ИИ в учебных заведениях. Эти продукты позволяют повысить общий уровень осведомленности и углубить человеческие компетенции распознавания контента, сгенерированного искусственным интеллектом.
В Белой книге, опубликованной в прошлом году, приведены сценарии применения искусственного интеллекта в медиа и e-commerce, в индустрии развлечений, кино и на телевидении, а также в сфере промышленной модернизации. Целый раздел посвящен проблемам, с которыми сталкивается развитие этого направления. «Главной проблемой, которую отмечают эксперты, является отсутствие развития системы регулирующих нормативно-правовых актов. Значит, работа в сфере ответственности и безопасности использования подобного контента будет только усиливаться», — считает докладчица.
Екатерина Михалевич рассказала о еще одной угрозе — возможности ведения когнитивной войны с использованием ИИ. По ее словам, в последние десятилетия наблюдается тенденция ведения так называемых гибридных войн, когда конфликтующие стороны не прибегают к классическим боевым действиям, а используют другие способы, в том числе в киберсреде. Большое внимание уделяется когнитивной войне, то есть борьбе за изменение сознания и поведения человека. Чтобы уметь отражать такую угрозу, китайские эксперты предлагают сосредоточиться на когнитивных пробелах и использовать технологии искусственного интеллекта в области больших данных для оценки ментальных и поведенческих моделей, для анализа и контроля информации, которую потребляет человек. Предлагается использовать ИИ также и в наступательных операциях, вторжении в центр принятия решений противника, расшатывании его позиции с помощью когнитивного вмешательства, в системах разведки и раннего предупреждения.
Фото: iStock
«Китайские эксперты отмечают, что освоение технологий искусственного интеллекта и использование таких технологий в военной сфере — это беспрецедентная историческая возможность для китайского общества, которая выпадает раз в жизни, поэтому ею необходимо воспользоваться для решения исхода возможных будущих войн», — отметила Екатерина Михалевич.
Чтобы преуспеть в этом направлении, необходимо, во-первых, ускорить создание тактических баз данных на основе искусственного интеллекта, которые будут обеспечивать поддержку когнитивным наступательным и оборонительным действиям. Во-вторых, необходимым условием является ускорение создания эффективных каналов медиакоммуникации, чтобы преодолеть существующие барьеры информационного взаимодействия. И в-третьих, необходимо сосредоточиться на ускорении сопряжения между когнитивными и информационными операциями: необходимо развивать технологии искусственного интеллекта для анализа междисциплинарной и разнородной когнитивной информации.
Таким образом, технологии искусственного интеллекта, создаваемые в целях ускорения технологического прогресса, становятся оружием в сфере общественного восприятия и в политике. По мнению Екатерины Михалевич, экспертам стоит выработать инструменты и протоколы предупреждения подобных угроз, а также научиться эффективно и своевременно реагировать на них.