Искусственный интеллект (ИИ) проникает практически во все сферы экономики и общественной жизни. Все важнее становится вопрос доверия людей к этим технологиям. Как исследует этот феномен современная наука и что такое этичный искусственный интеллект, обсудили на семинаре в Вышке.
Свои доклады представили стажер-исследователь Научно-учебной лаборатории когнитивной психологии пользователя цифровых интерфейсов НИУ ВШЭ (HSE UX LAB) Антон Ангельгардт и студентка второго курса ОП «Психология» Полина Журавлева. Докладчики выступали в рамках семинара по когнитивным исследованиям, который проводился департаментом психологии факультета социальных наук НИУ ВШЭ совместно с Научно-учебной лабораторией когнитивной психологии пользователя цифровых интерфейсов.
Что такое доверие?
За последние 60 лет парадигма исследования взаимодействия человека и технической системы изменилась кардинально, отметила Полина Журавлева. В середине XX века в инженерной психологии преобладала субъект-объектная парадигма, в которой взаимодействие человека с технической системой воспринималось как управление техническим объектом, а главной задачей было обеспечение надежной и эффективной работы оператора в автоматизированной системе. В начале XXI века с развитием технических систем и приобретением ими некоторых человеческих качеств, таких как непредсказуемость и использование естественного языка, модель взаимодействия человека с системами стала рассматриваться как субъект-субъектная. В субъект-субъектной парадигме взаимодействие приобретает черты межличностного в силу присутствия фактора доверия, подчеркнула Полина Журавлева.
Само доверие сложно определить однозначно: разные исследователи вольны по-своему его трактовать. Однако когнитивная наука склонна описывать концепцию доверия вероятностно: ученые подходят к доверию как к субъективной вероятности, с которой один агент оценивает другого, или как к убеждению, относящемуся к вероятности того, что другие будут совершать какие-то поступки или воздерживаться от них.
Исследования показывают, что пользователи интеллектуальных систем склонны разделять межличностное доверие и доверие, связанное с технологией, продолжила спикер. Если в межличностном доверии отражаются суждения о компетентности, доброжелательности, честности и мотивации другой стороны (человека), то относительно технологии внимание обращается на ее характеристики, функциональность, полезность и надежность.
Искусственный интеллект и этика
В 2019 году Европейская комиссия опубликовала руководство по этике для надежного ИИ, в котором было изложено несколько сотен комментариев. Этот документ впоследствии заложил основу для формирования принципов этического использования ИИ (Trust in Artificial Intelligence, или TAI). В числе принципов TAI:
- Благотворительность. Этот принцип требует учитывать при разработке ИИ экологическую безопасность использования вычислительных ресурсов. Такие ИИ должны способствовать улучшению благополучия людей и соблюдать их права.
- Отсутствие злонамеренности. Правило «не навреди». Принцип преследует цель обезопасить частную жизнь пользователей и их персональные данные.
- Автономия. Этому принципу не хватает точного определения в рамках TAI. Обычно исследователи фокусируются на сохранении свободы человека в принятии решений и ограничении этой свободы у ИИ.
- Справедливость. Подразумевается скорее этическая справедливость, а не юридическая: исправление прошлой несправедливости, предотвращение создания новой несправедливости, создание разделяемых выгод с помощью ИИ, их последующее распределение.
- Объяснимость. Создание объяснимого, подотчетного и прозрачного ИИ при сохранении высокого уровня производительности и точности.
Искусственный интеллект и оценка доверия
Сегодня ИИ используется повсеместно: в финансах, в образовательных технологиях, в сфере безопасности, в здравоохранении и т.п. Бизнес во всех этих сферах заинтересован в исследованиях доверия к искусственному интеллекту.
«Мы как UX-исследователи можем что-то сделать, чтобы с точки зрения интерфейсных влияний человек больше доверял той или иной системе? Мы столкнулись с очень простой проблемой: мерить нечем. Непонятно, как зафиксировать интерфейсное влияние на уровень доверия», — отмечает Антон Ангельгардт.
Для решения этой проблемы вместе с коллегами Антон Ангельгардт проводит исследование “An Assessment of Trust in Artificial Intelligent Agents: Tool Development” («Оценка доверия к агентам с искусственным интеллектом: разработка инструментов»). В его рамках ученые занимаются разработкой опросника для исследования доверия человека к ИИ.
В исследовании уже приняли участие около 500 человек со всех уголков России. В итоге, отметил Антон Ангельгардт, удалось разработать опросник, который позволяет проводить исследования доверия к искусственному интеллекту.
По его словам, эта работа будет продолжена. Планируется, в частности, привлечь к исследованию несколько тысяч человек, чтобы отточить формулировки вопросов и научиться более точно измерять уровень доверия пользователей.
Конечным итогом такой работы может стать создание рабочего инструмента для проведения исследований новых технологичных продуктов и степени доверия к ним клиентов.
«Искусственный интеллект, как и любая другая технология, не только принесет много преимуществ, но и будет сопровождаться множеством этических, юридических и социальных проблем. В ответ на растущее осознание этих проблем мы видим многочисленные призывы к полезному, ответственному или этическому ИИ. Независимо от какой-либо терминологии все эти призывы относятся, по сути, к одним и тем же целям, а именно к развитию ИИ таким образом, чтобы его преимущества были максимизированы, а риски и опасности были смягчены или предотвращены», — отметила Полина Журавлева.
Фото: iStock