За последние годы технологии конструирования дипфейковых изображений сделали их неотличимыми от реальных фото и видео. Воссоздаются герои прошлых лет, известные личности легко «рисуются» там, где их в реальности не было, люди получают аудиодипфейки вместо реальных звонков. О том, какое будущее ждет дипфейки и как защитить себя от новых видов мошенничества, говорили на круглом столе «Fake news: междисциплинарный подход» в рамках XXIII Ясинской международной научной конференции НИУ ВШЭ.
Принцип работы дипфейков (англ. deepfake — методика синтеза изображения, основанная на искусственном интеллекте. — Ред.) построен вокруг идеи о том, что один искусственный интеллект может обманывать другой, рассказал доцент департамента анализа данных и искусственного интеллекта факультета компьютерных наук НИУ ВШЭ Алексей Незнанов. Так, если на картинку с пандой добавить наклейку или специальный фильтр, то нейросеть, обученная распознавать животных, увидит не панду, а, например, гиббона.
Алексей Незнанов, фото: nbmz.ru
«Существуют сервисы Generative adversarial network (GAN), которые учатся все точнее воспроизводить какой-то объект, чтобы распознаватель все точнее его распознавал. Любой человек может над ними работать, нужны только базовые знания в математике на уровне первого курса вуза и доступ в интернет», — полагает Алексей Незнанов. Вокруг этой технологии (распознавание объекта и его замещение) и строится принцип работы дипфейков.
Уже в 2019 году появились дипфейки первого поколения с образами политиков и голливудскими звездами, которые выглядели достаточно убедительно.
К 2021 году дипфейки встали на промышленные рельсы, пришли в кино и рекламу. Самым известным в России стал случай, когда голливудский актер Брюс Уиллис буквально «торговал лицом» для рекламы «Мегафона», не появляясь при этом в кадре лично: его лицо было вставлено в ролик при помощи нейросети.
Сейчас существуют минимум три поколения дипфейков. С каждым новым этапом развития технологий отрисовка лиц, реалистичность, функционал растут. Алексей Незнанов полагает, что скоро нас ждет 4-е поколение дипфейков: его основной особенностью станет омниканальность (видео, текст, запахи и все что угодно одновременно).
Есть множество способов применения дипфейков во благо — от рекламы до трансформации музейных экспозиций, отмечает эксперт.
Существуют примеры легальных успешных deepfake-стартапов. Так, российская компания Deepcake, помимо кейса «Мегафона» и Брюса Уиллиса, воссоздала лицо Жоржа Милославского, персонажа кинофильма «Иван Васильевич меняет профессию» в исполнении Леонида Куравлева, для рекламы Сбера. Тогда обучение искусственного интеллекта продлилось 16 дней, программа обработала около 7000 картинок.
Но было бы странно, если бы технология по замене лиц на фото и видео использовалась только в легальном поле. «Заточенная пластина металла может быть спасающим жизни скальпелем в руках хирурга, а может быть орудием злодеяний. Один и тот же препарат может быть и ядом, и лекарством. Таких примеров сотни, то же самое и с дипфейками. Вопрос к технологии применения», — подчеркивает юрист, эксперт Комитета по вопросам искусственного интеллекта при Комиссии Правительства РФ по делам ЮНЕСКО Дмитрий Огородов.
Технология открывает массу возможностей для самых разных фальсификаций.
Дмитрий Огородов выделил основные из них:
● аудиодипфейки с целью вымогательства (например, звонки из серии «мама, я попал в полицию, скинь деньги на этот номер», «ваш счет заблокирован, дайте ПИН-код» и т.п.);
● фальсификация доказательств по гражданским и уголовным процессам (например, вместо расписки появляется видео, где человек заявляет, что взял в долг деньги и не собирается отдавать);
● дискредитация личности в глазах общественности (вариант: образ политика «нарисовали» в ночном клубе, где его быть не должно).
Ответственность за такие нарушения и фальсификации уже заложена в законодательстве РФ. Проблема в возможностях судебной экспертизы. «Многие методы, которыми пользуются эксперты в обычных случаях, становятся неэффективными с развитием дипфейк-технологий», — отмечает исследователь. «В таких случаях судебный эксперт может сказать: “А я не могу установить, правда это или нет”», — констатирует он.
«Все коллеги однозначно говорят: “Мы не готовы”. Электронные подписи, водяные знаки могут сгладить проблему, но это используется мало», — подчеркивает Алексей Незнанов.
Одним из решений проблемы он видит проект Detect Fakes. На этой площадке обычные пользователи помогают набирать базу дипфейков и настоящих картинок для дальнейшего фактчекинга. В этой работе может принять участие каждый.
Более радикальные меры остаются дискуссионными, отмечают эксперты. В ходе круглого стола звучали предложения об ограничении оборота фото и видео, на которых нейросети могут учиться, об ограничении оборота процессоров и видеокарт. Также звучали идеи создать международную организацию для контроля за распространением дипфейков по аналогии с МАГАТЭ. Такой подход свидетельствует, что фейковые видеоролики в нынешней действительности становятся не менее опасны, чем оружейный плутоний.
Фото: МегаФон / YouTube