Технологии искусственного интеллекта привносят новые возможности в медицину. Однако их практическое применение сопряжено с рядом этических вопросов. Например, какую ответственность несет система за предоставление неверной информации или неправильные диагнозы при использовании ИИ для прогнозирования заболеваний? О работе специалистов Центра искусственного интеллекта ВШЭ в рамках проекта «Этическая экспертиза в сфере ИИ» над инструментом, который может быть использован для оценки этичности ИИ-системы на всех этапах ее жизненного цикла, HSE Daily рассказала руководитель проекта Анастасия Углева.
Актуальность
Медицина — одна из тех областей, в которой цена ошибки очень высока. Ее технологизация позволяет снизить риски не только для пациентов, но и для врачей, обеспечить устойчивость и надежность инструментов, используемых как для решения рутинных задач, так и для принятия некоторых сложных клинических решений. Вместе с тем технология способна не только снять проблему рутинизации труда, обеспечить более высокий уровень надежности диагностических и лечебных процедур, но и породить череду новых вызовов, связанных с умышленной или неумышленной дискриминацией, предвзятостью, нераспределенной ответственностью, нарушением принципа конфиденциальности данных и т.д. При всей жесткости регулирования медицины как отрасли в ней так же, как и в других человекоцентричных областях, внедрение умных технологий неизбежно требует дополнительных мер оценки неочевидных рисков, которые до сих пор не регламентированы правом, при этом нуждаются в артикуляции, чтобы не только не допустить нарушения уже существующего закона, но и предостеречь от не менее значимых для отдельного человека и общества в целом угроз. На кону не только здоровье и человеческие жизни, но и профессиональный авторитет живого врача со всем его опытом и знаниями. Прогресс неумолим, и нельзя сбрасывать со счетов, что привычка использовать новый технологический инструментарий необязательно предполагает увеличение требований к компетенциям ее оператора, но может и, наоборот, вызывать деградацию его профессиональных навыков. Наша задача заключается в том, чтобы подсветить все эти неочевидные риски, обратить внимание на них как разработчиков и поставщиков данных, так и операторов, тех, кто внедряет ИИ-технологии, и тех, кто их потребляет.
О методике
В процессе разработки методики у нас был, конечно, соблазн произвести продукт, позволяющий алгоритмизировать в том числе процедуру проверки технологии (или ее идеи) на этичность. Однако очень скоро стало понятно, что полная алгоритмизация такой оценки невозможна без потери качества. Вмешательство эксперта, обладающего необходимыми профессиональными компетенциями и опытом, необходимо как минимум на этапе интерпретации полученных результатов. Этические нормы и нравственные ценности крайне сложно формализовать, рискну предположить, что чаще всего и невозможно, поскольку всякий раз при упоминании того или иного этического понятия требуется консенсус по поводу его толкования. Это, наверное, самая сложная часть нашего исследования. Приходится осуществлять ряд аналитических процедур, связанных с разработкой различных дизайнов ценностей, наложением их друг на друга, сопоставлением и выявлением сухого остатка. Часто оказывается, что при всей интуитивной ясности значения того или иного термина в действительности отсутствует консенсусное его понимание между правом, медициной и общечеловеческой моралью. Один из таких ярких примеров — принцип ненанесения вреда. Нам нужно выявлять все эти тонкости и стараться фиксировать их в сопровождающем методику глоссарии. В итоге сама методика будет представлена в совокупности вопросов закрытого типа. При этом вопросы сформулированы таким образом, что по запросу респондента на предоставление развернутой экспертной оценки результатов тестирования возможны различные варианты их интерпретаций по причине разнообразных комбинаций полученных ответов.
Фото: iStock
Преимущества
Сейчас в самых разных научных и образовательных организациях как медицинского, так и немедицинского профиля предпринимается немало усилий по разработке медицинского ли кодекса, специальных ли рекомендаций к Национальному кодексу этики в сфере ИИ РФ применительно к системе здравоохранения, всевозможных приложений, регламентов и тому подобных документов. Некоторые из них, наиболее интересные прототипы, оказываются в поле зрения Рабочей группы по этике ИИ в медицинской сфере в составе Комиссии по реализации Кодекса этики в сфере искусственного интеллекта, членом которой я являюсь. И есть, на мой взгляд, одна существенная проблема, объединяющая почти все эти во многом схожие по содержанию инициативы, — они лишь в малой степени имеют отношение к этике. В них нет ни терминологической ясности, ни акцентуации внимания именно на этических рисках внедрения ИИ-технологий, зато превалирует правовой подход и стремление весь процесс этической оценки свести к строгим алгоритмизированным процедурам. Мы же, повторюсь, пытаемся привнести именно гуманитарный взгляд на вопросы этики медицинского ИИ, основывая свою методику на синтезе социологического, психологического и философского знания.
Применение
Мы валидизируем методику на репрезентативной выборке специалистов — врачей и разработчиков медицинского ИИ. Будем контролировать процесс и дальше, совершенствовать нашу методику. Но уже сейчас она вполне может быть использована как в работе специальных этических комитетов, работающих по аналогии с биоэтическими комиссиями, с ИИ-технологиями и исследованиями, предполагающими их использование, так и в работе судебно-медицинских экспертов, которым в скором времени предстоит разбирать нетривиальные случаи медицинских ошибок и дилемм, ставших следствием использования систем ИИ. В случае судебно-медицинской экспертизы мы, конечно, действуем на опережение, разрабатывая такие инструменты, хотя пока, насколько мне известно, не было таких прецедентов в их практике. Но запрос от судебно-медицинского сообщества на такого рода методические рекомендации имеется, так что, надеюсь, результаты нашей работы помогут и им принимать более взвешенные с этической точки зрения решения.
В рамках форума «Поколение GPT. Красные линИИ» были вручены награды за вклад в развитие этики в сфере искусственного интеллекта. Анастасия Углева была отмечена за исследования по этической экспертизе в сфере ИИ и проведение регулярного научного семинара по гуманистическим и этическим аспектам развития цифровых технологий.