Еще не мыслит, но уже существует: новые возможности и угрозы ИИ

Фото: iStock
Фото: iStock

Искусственный интеллект (ИИ) стремительно меняет ландшафт бизнеса и общества, но вместе с возможностями растут и риски. Конференция «Искусственный интеллект и общество» стала площадкой для обсуждения этических, правовых и технологических вызовов, стоящих перед компаниями и регуляторами. Эксперты представили свои взгляды на баланс между инновациями и безопасностью, обозначив ключевые точки контроля и потенциальные сценарии развития рынка ИИ в ближайшие годы. Главный вопрос: как извлечь максимальную выгоду из ИИ, минимизировав риски и обеспечив соответствие этическим нормам.

Факультет компьютерных наук НИУ ВШЭ провел конференцию «Искусственный интеллект и общество». Открывший конференцию заместитель руководителя департамента и анализа данных ФКН Василий Громов подчеркнул, что общество должно реагировать на новые вызовы, создаваемые применением ИИ, и учиться взаимодействовать с технологиями, чтобы извлекать максимум выгоды и отражать возникающие угрозы.

Директор Центра Управления Знаниями МПИИПУ, прогностик Сергей Переслегин в докладе «Естественные пределы искусственного интеллекта» отметил, что пока искусственный интеллект не является мыслящим и неспособен вырабатывать новые идеи. Появление такой возможности представило бы экзистенциальный вызов человечеству. Нельзя исключить и другой вариант развития событий, когда мир эволюционирует к сложному сочетанию человека и машины.

По его мнению, ИИ пока не умеет создавать новое, но может научиться этому благодаря способности общаться, сохранять и обрабатывать большие объемы данных. Пока в системе человек-машина первый занимает управляющую позицию. ИИ зависит от мышления и знаний человека, он не вполне самостоятелен. Важно, чтобы он в ходе эволюции не превратился в тупиковую технологию, пожирающую время, сознание и бытие, препятствующую дальнейшему развитию.

Руководитель направления исследования данных ПАО Сбербанк Лидия Булушова представила доклад «Этичное моделирование: достижим ли баланс между точностью и непредвзятостью AI моделей в бизнесе?», подготовленный по исследованиям Банковского института Вышки.

Фото: iStock  

Она отметила, что этические стандарты активно применяются компаниями в течение последних 50 лет, причем проблема этичности возникает при решениях, принятых единолично, коллегиально или интеллектуальной моделью. Сейчас компании, госучреждения и НКО имеют свои кодексы этики, руководствуясь которыми, сотрудники и управленцы должны вырабатывать решения и ответы на вызовы.

Представитель Сбера обратила внимание, что следование этическим принципам не всегда дает компании преимущества, а вопрос о том, должны ли они быть этичными, чтобы достигать успеха, не имеет однозначного ответа. Этические стандарты требуют знания законов, высокого профессионального уровня и независимости сотрудника в суждениях. Сейчас возникает новый вопрос: нужен ли отдельный этический кодекс для применения ИИ или можно применять действующий.

Важно, чтобы правила не позволяли ИИ-агентам задавать скользкие вопросы, например, о возможности использования лазеек в законе, а также чтобы они соблюдали лояльность по отношению к клиентам и принцип прозрачности при запуске ИИ-агентов. В зарубежных компаниях, где в общении с клиентами применяются чат-боты и боты, компания должна отвечать за деятельность чат-бота, есть и соответствующие решения судов.

Нередко скандалы, возникающие в связи с применением моделей ИИ пытаются списать на их неэтичность модели и низкое качество, но модель разработана человеком и компания или биржа, допускающая у себя работу ИИ- агента, должна иметь возможность остановить ее функционирование в случае риска негативных последствий.

Основными вызовами применения ИИ-моделей Лидия Булушова назвала «эффект домино» в случае массового применения ИИ-агентов; возможную предвзятость и дискриминацию решений о найме и в финансовой сфере, принятых моделями вследствие ограниченности данных при обучении. Чтобы избежать этого, нужно изучать аномалии. Важно также четко проговорить с клиентом и заказчиком ответственность за решения и ее размеры в случае ущерба, нанесенного действиями ИИ, поскольку его разработчики могут сослаться на незнакомство с этическими стандартами. Кроме того, могут возникнуть проблемы манипуляции и недобросовестного поведения работника, применяющего ИИ, а также конфиденциальности данных при хранении.

Она отметила, что использование моделей без учета этических принципов может привести к неэтичному отказу в приеме на работу, в выдаче кредита или неправомерной передаче данных пациентов и др.

«Мы пытаемся исправить модели, есть методы их очищения, а как компании заставить себя вести прилично и не читать почту сотрудников, это вопрос для размышления, достаточно ли саморегулирования или нужны законодательные меры», - подытожила Лидия Булушова.

Доцент ФКН НИУ ВШЭ Александра Бернадотт представила доклад «Осцилляторная модель мозга и размерность мысли». Она отметила: авторская модель нейроинтерфейса отражает ментальные движения или квазидвижения, фиксируемые в определенном спектре. Легче определяются состояния возбуждения, напряжения, сонливость и покоя. Изучая реакцию можно прогнозировать кризисы и следить за ментальным состоянием.

Нейроинтерфейсы, используемые повседневно, должны быть носимыми, что ограничивает их размеры, вес и энергопотребление, что влияет и на вычислительные способности. Специалистам, которые наблюдают за пациентом и его состоянием, необходимо как можно быстрее распознавать состояние мозга, чтобы среагировать на ментальное движение, быстро его распознать и попытаться завершить, если пациент не может сделать этого самостоятельно. Для этого необходима большая языковая модель, способная схватывать отдельные паттерны поведения.  

Докладчик сообщила, что мозг кодирует много гармонических сигналов, способных затухать или набирать силу, отражая тем не менее структуру мозга, причем каждый нейрон становится осциллятором.

Изучение осцилляции требует формирования и изучения близких к периодическим функциям, а элементы сигнала описываются периодической функцией. Каждый датчик, установленный у пациента, получает информацию от нескольких участков мозга, некую сумму сигналов от некоторого числа осцилляторов мозга. Сигнал одного осциллятора описывается одним дифференциальным уравнением и его решение позволяет выявить реакцию мозга и нейронов на внешние сигналы, их готовность к движению.

Фото: iStock  

Директор Центра научно-технологического прогнозирования ИСИЭЗ НИУ ВШЭ Александр Чулок представил доклад «Глобальные тренды цифрового мира 2050: взгляд сквозь мировые форсайты». Докладчик подчеркнул, что представляет сценарии возможного развития технологий ИИ. 

Чтобы удерживать позиции на рынке, компании или стране необходимо бежать вперед или прыгать высоко вверх, причем параллельно нужна диверсификация технологий и компетенций, а сужение сферы развития и изучения будет чревато ошибкой. Выделяя топ-5 профессий, можно упустить шестую, которая сейчас представляется малозначимой, а затем может «выстрелить». «Конечно важны приоритеты, но важен и широкий спектр работ», - сказал Александр Чулок.

Будущее пытаются прогнозировать многие, но в основном стремятся делать это с помощью данных из прошлого, но в результате получаются хорошие объяснения произошедших событий, а не качественные прогнозы будущего. Простая экстраполяция прошлое на будущее не работает, поскольку динамика развития может резко измениться, можно вспомнить, что еще в 1950-е гг. кибернетику в СССР называли лженаукой.

Прогнозы противоречивы: Всемирный экономический форум предсказывал, что к 2025 г. благодаря применению ИИ исчезнут 85 млн рабочих мест и появятся 95 млн. Когда управленцев спрашивали, какую долю обязанностей работников их компании сможет выполнять ИИ, они отвечали, что две трети, но только 1% говорили, что искусственный интеллект может заменить их.

Он отметил, что методы форсайта, разработки сценариев развития разных сфер экономики и общества, сочетающие количественные методы и прогнозы ведущих экспертов, показали свою эффективность. «Есть форсайт – средство против насекомых, но мы против тараканов в голове», - пошутил Александр Чулок.

Он напомнил о стратегиях развития ведущих стран мира. Германия планирует активнее исследовать космос и морские глубины и формировать общество равных возможных. Европа в целом стремится стать углеродно нейтральной к 2050 г., но это может произойти за счет переноса «грязных» производств в другие регионы мира.

Южнокорейский форсайт 2021 г. на период до 2045 г. предусматривает создание механизмов, защищающих людей от захвата власти ИИ, одновременно планирует построить 10 углеродно нейтральных городов и стремится выйти в космос.

Японский образ 2050 г. включает 8 направлений и 850 технологий, в том числе реабилитационных. Они намерены построить общество, основанное на инклюзивности и возможности выбора продолжительности жизни, и это не футурология, а результат работы серьезных ученых.

«Мы отличились, мы стараемся сделать ставку на одну технологию, но забываем о человеке. Мы можем подковать хромую блоху и вывести ее на международный рынок, но построить завод не получается, передаем производство в Китай», - посетовал ученый.

Александр Чулок напомнил о разработанной в ИСИЭЗ системе iFora, названной журналом Nature одной из пяти лучших мировых систем аналитики.

По словам ученого, обратившись к ней с вопросом о трендах будущего, он получил ответ, что мировых трендов сотни: от новых вакцин и локдаунов и повышения устойчивости бактерий к антибиотикам до старения населения, которое означает расширение рынка товаров для пожилых людей, уже оцениваемого в триллионы долларов.

Он подчеркнул, что прогноз ИСИЭЗ до 2025 г. состоялся на 85-90%, это очень высокий показатель, есть и прогнозы до 2030 г. и более длительный период. По его мнению, увлечение рекомендательными системами, применяемыми в разных целях, может привести к тому, что их взлом может привести и к ущербу для их отдельных пользователей.

Фото: iStock  

Конкурентоспособность страны или отрасли не будет высокой, если делать ставку на один показатель. Надо опираться на развитие экосистем, отказаться от прежних стандартов и разработать свои.

«Без компетенций и развития человека нам ничего не сделать. Мы спрашивали, какие компетенции востребованы – надо сочетать критичность и креативность. Я надеюсь, что ИИ даст всем возможность заниматься любимым делом», - подытожил эксперт ИСИЭЗ. 

Ведущий научный сотрудник ВНИИ МВД России Александр Смирнов представил доклад «Использование технологий искусственного интеллекта в преступных целях: характеристика и методы противодействия». Он отметил, что технологии ИИ могут применяться и в позитивных, и в преступных целях, вплоть до создания детской порнографии. Триада угроз международной информационной безопасности включает использование ИИ в военных целях, террористической и преступной деятельности, хотя в последнее время грань между ними размывается.

Сейчас правоохранительные органы всех стран внимательно следят за применением ИИ преступниками. В частности, он используется для анализа соцсетей и утечек персональных данных, для создания базы потенциальных жертв, поскольку ИИ быстро обрабатывает терабайты информации.

Большие языковые модели позволяют не только писать тексты, похожие на произведения великих писателей, но и готовить фишинговые письма и вредоносные коды, а также писать тексты для джихадистов, выглядящие вполне убедительно благодаря ссылкам, в том числе фальшивым, на Коран.

Он обратил внимание, что в интернете несложно найти сервисы, способные быстро разработать код для взлома или написать и разослать фишинговое письмо. Это, по словам представителя МВД, снижает барьер для киберпреступности, поскольку хакеру теперь необязательно быть хорошим программистом.

Дипфейки, использующие модификацию изображений и звуков, активно задействованы в мошенничестве, когда ответственным сотрудникам компании поступают звонки, где человек с голосом, очень похожим на руководителя, требует срочно перевести средства для проведения сделки на определенный счет. Этим методом пользуются и известные пранкеры для дискредитации знаменитостей.

Также с помощью дипфейков в порнографических видео или фото меняются лица участников на изображение знаменитости или просто того, кого преступники хотят дискредитировать. Доклад Европола по организованной преступности в интернете указывает на большой объем сгенерированной детской порнографии, где не участвуют реальные дети, но это все равно порнография, сохраняющая значительную общественную опасность.

По мнению Александра Смирнова, волшебной таблетки для противодействия преступникам, использующим ИИ, нет, нужны комплексные этические и правовые нормы. Следует также укреплять системы безопасности, маркировать контент, созданный с применением ИИ, наконец, постоянно просвещать граждан об ухищрениях аферистов и мерах предосторожности и противодействия мошенникам.

Всего на конференции были представлены 48 докладов, подготовленных 52 исследователями из России, Китая, Германии, Швейцарии и Армении, в том числе восемь докладов исследователей НИУ ВШЭ.

Дата публикации: 22.08.2025

Автор: Павел Аптекарь

Будь всегда в курсе !
Подпишись на наши новости: