Переход на личности: зачем нужно измерять уровень доверия людей к искусственному интеллекту

Искусственный интеллект (ИИ) проникает практически во все сферы экономики и общественной жизни. Все важнее становится вопрос доверия людей к этим технологиям. Как исследует этот феномен современная наука и что такое этичный искусственный интеллект, обсудили на семинаре в Вышке.

Свои доклады представили стажер-исследователь Научно-учебной лаборатории когнитивной психологии пользователя цифровых интерфейсов НИУ ВШЭ (HSE UX LAB) Антон Ангельгардт и студентка второго курса ОП «Психология» Полина Журавлева. Докладчики выступали в рамках семинара по когнитивным исследованиям, который проводился департаментом психологии факультета социальных наук НИУ ВШЭ совместно с Научно-учебной лабораторией когнитивной психологии пользователя цифровых интерфейсов.

Что такое доверие?

За последние 60 лет парадигма исследования взаимодействия человека и технической системы изменилась кардинально, отметила Полина Журавлева. В середине XX века в инженерной психологии преобладала субъект-объектная парадигма, в которой взаимодействие человека с технической системой воспринималось как управление техническим объектом, а главной задачей было обеспечение надежной и эффективной работы оператора в автоматизированной системе. В начале XXI века с развитием технических систем и приобретением ими некоторых человеческих качеств, таких как непредсказуемость и использование естественного языка, модель взаимодействия человека с системами стала рассматриваться как субъект-субъектная. В субъект-субъектной парадигме взаимодействие приобретает черты межличностного в силу присутствия фактора доверия, подчеркнула Полина Журавлева.

Само доверие сложно определить однозначно: разные исследователи вольны по-своему его трактовать. Однако когнитивная наука склонна описывать концепцию доверия вероятностно: ученые подходят к доверию как к субъективной вероятности, с которой один агент оценивает другого, или как к убеждению, относящемуся к вероятности того, что другие будут совершать какие-то поступки или воздерживаться от них.

Исследования показывают, что пользователи интеллектуальных систем склонны разделять межличностное доверие и доверие, связанное с технологией, продолжила спикер. Если в межличностном доверии отражаются суждения о компетентности, доброжелательности, честности и мотивации другой стороны (человека), то относительно технологии внимание обращается на ее характеристики, функциональность, полезность и надежность.

Искусственный интеллект и этика

В 2019 году Европейская комиссия опубликовала руководство по этике для надежного ИИ, в котором было изложено несколько сотен комментариев. Этот документ  впоследствии заложил основу для формирования принципов этического использования ИИ (Trust in Artificial Intelligence, или TAI). В числе принципов TAI:

  • Благотворительность. Этот принцип требует учитывать при разработке ИИ экологическую безопасность использования вычислительных ресурсов. Такие ИИ должны способствовать улучшению благополучия людей и соблюдать их права.
  • Отсутствие злонамеренности. Правило «не навреди». Принцип преследует цель обезопасить частную жизнь пользователей и их персональные данные.
  • Автономия. Этому принципу не хватает точного определения в рамках TAI. Обычно исследователи фокусируются на сохранении свободы человека в принятии решений и ограничении этой свободы у ИИ.
  • Справедливость. Подразумевается скорее этическая справедливость, а не юридическая: исправление прошлой несправедливости, предотвращение создания новой несправедливости, создание разделяемых выгод с помощью ИИ, их последующее распределение.
  • Объяснимость. Создание объяснимого, подотчетного и прозрачного ИИ при сохранении высокого уровня производительности и точности.

Искусственный интеллект и оценка доверия

Сегодня ИИ используется повсеместно: в финансах, в образовательных технологиях, в сфере безопасности, в здравоохранении и т.п. Бизнес во всех этих сферах заинтересован в исследованиях доверия к искусственному интеллекту.

«Мы как UX-исследователи можем что-то сделать, чтобы с точки зрения интерфейсных влияний человек больше доверял той или иной системе? Мы столкнулись с очень простой проблемой: мерить нечем. Непонятно, как зафиксировать интерфейсное влияние на уровень доверия», — отмечает Антон Ангельгардт.

Для решения этой проблемы вместе с коллегами Антон Ангельгардт проводит  исследование “An Assessment of Trust in Artificial Intelligent Agents: Tool Development” («Оценка доверия к агентам с искусственным интеллектом: разработка инструментов»). В его рамках ученые занимаются разработкой опросника для исследования доверия человека к ИИ.

В исследовании уже приняли участие около 500 человек со всех уголков России. В итоге, отметил Антон Ангельгардт, удалось разработать опросник, который позволяет проводить исследования доверия к искусственному интеллекту.

По его словам, эта работа будет продолжена. Планируется, в частности, привлечь к исследованию несколько тысяч человек, чтобы отточить формулировки вопросов и научиться более точно измерять уровень доверия пользователей.

Конечным итогом такой работы может стать создание рабочего инструмента для проведения исследований новых технологичных продуктов и степени доверия к ним клиентов.

«Искусственный интеллект, как и любая другая технология, не только принесет много преимуществ, но и будет сопровождаться множеством этических, юридических и социальных проблем. В ответ на растущее осознание этих проблем мы видим многочисленные призывы к полезному, ответственному или этическому ИИ. Независимо от какой-либо терминологии все эти призывы относятся, по сути, к одним и тем же целям, а именно к развитию ИИ таким образом, чтобы его преимущества были максимизированы, а риски и опасности были смягчены или предотвращены», — отметила Полина Журавлева.

Фото: iStock

Дата публикации: 22.02.2022

Автор: стажер-исследователь Проектно-учебной лаборатории экономической журналистики НИУ ВШЭ Семен Васильев

Будь всегда в курсе !
Подпишись на наши новости: