Применение ИИ облегчает деятельность мошенников. Они быстро адаптируются к цифровому миру и используют технологии в своих схемах. Методы социальной инженерии дополняют дипфейки, призванные вынудить жертву открыть доступ к счетам и персональным данным. Эксперты прогнозируют бурный рост количества попыток мошенничества с применением этого инструмента. Но фальшивки можно разоблачить, если быть внимательным и не паниковать.
Федеральный методический центр по финансовой грамотности системы общего среднего и профессионального образования организовал вебинар «Дипфейк: как распознать мошенничество на основе искусственного интеллекта», на котором выступила приглашенный преподаватель НИУ ВШЭ — Пермь Кристина Чашникова.
Она напомнила: технология редактирования, позволяющая синхронизировать видео и звуковую дорожку, появилась еще в 1997 году. Докладчица привела несколько примеров ее использования. Так, в рекламе Сбера воссозданный с помощью ИИ персонаж пьес Михаила Булгакова Жорж Милославский попал в современную Москву. В рекламе «Мегафона» был использован образ известного актера Брюса Уиллиса, также созданный с помощью ИИ. Актер дал на это разрешение. Такое использование технологии является законным и экологичным по отношению к личности, по которой сделан дипфейк.
Вместе с тем аферисты адаптировались к цифровому миру и используют его технологии в своих схемах. Недавно заместитель председателя правления Сбербанка Станислав Кузнецов на заседании Совета по развитию цифровой экономики и Совета по развитию финансового рынка при Совете Федерации сообщил о резком росте использования дипфейков изображений и голосов людей, созданных с помощью искусственного интеллекта, в мошеннических схемах. «Коммерсантъ» со ссылкой на данные системного интегратора «Информзащита» сообщил, что в 2024 году число только учтенных атак на физические лица выросло на 13% — до 5700 случаев. Успеха достигают лишь 15–20% таких атак, это меньше, чем 5–7 лет назад, но все равно много. Как пояснили в Сбере, банки пока не готовы противостоять массовому применению дипфейков, поэтому потребителям и пользователям соцсетей надо уметь самостоятельно защищаться от аферистов.

Кристина Чашникова
Также о взрывном, в 5–9 раз, увеличении попыток мошенничества с применением ИИ предупреждала компания Booking. Особенно заметен рост числа фишинговых атак, когда пользователям приходят письма со ссылками, адаптированными под их возможные запросы. Фальшивые ссылки на госорганы и тексты писем все больше похожи на настоящие, в них стало существенно меньше грамматических и орфографических ошибок. Booking сам применяет ИИ для защиты от аферистов, но механизм срабатывает с некоторым запозданием и не всегда успевает заблокировать всех пользователей, применяющих сгенерированные ИИ данные. Иногда мошенники имитируют переписку со специалистами и сообщения с их голосом.
Применение ИИ облегчает деятельность мошенников. Например, один человек может сделать до 300 звонков-ловушек в день, а робот — до 40–50 тысяч.
Докладчица подчеркнула: дипфейк дополняет методы социальной инженерии, призванные вынудить жертву открыть доступ к счетам или персональным данным. Для создания дипфейка применяют материалы, имеющиеся в Сети: подделывают голос, интонации и мимику человека. «Чем меньше ваших данных в открытом пространстве, тем сложнее создать правдоподобный дипфейк», — отметила эксперт Вышки.
Мошенники взламывают аккаунты в мессенджерах и рассылают оттуда голосовые и видеосообщения. Поэтому нельзя переходить по ссылкам, не убедившись в их подлинности, даже если их прислали знакомые.
Докладчица рассказала, как однажды сама получила сообщение с аккаунта брата с просьбой перевести некоторую сумму на ремонт стиральной машины. Однако сообщения были очень краткими и отличались от обычной манеры брата. Когда она спросила, не взломали ли его, то получила голосовое сообщение, но темп речи был очень быстрым. Это укрепило ее подозрения во взломе, пояснила Кристина Чашникова.
Важно понимать, что при взломе аккаунта ИИ получает доступ к переписке, фото, видео и голосовым материалам, на основе которых пытается создать правдоподобный дипфейк: персонализирует общение с жертвой и генерирует ситуации, не вызывающие подозрения у ее знакомых.
Например, подруга женщины, любящей путешествовать, получает просьбу одолжить 100 000 на билет. Такие ситуации, видимо, случались и ранее, поэтому она не подумала, что подруга ввиду разницы часовых поясов в это время еще спит.

Фото: iStock
Атаки мошенников часто нацелены на кражу информации. Например, дипфейки создают, чтобы убедить сотрудников компании предоставить доступ к важной информации, подделывая в том числе личности государственных деятелей.
Еще одно назначение дипфейков — дезориентация в насыщенном информационном мире, стремление ввести в заблуждение и манипулировать общественным мнением, используя фальшивые изображения и голоса влиятельных персон. ИИ просто подделать личность того, кто часто выступает публично. Это создает риски для СМИ: например, они могут распространить «новости» о событиях, которые на самом деле не происходили (например, встречи глав государств и заявления по их итогам).
Дипфейки также создают для дискредитации личности. Например, выпускают ролики с вымышленными непристойными действиями известных людей, нанося таким образом вред их репутации.
Докладчица перечислила основные признаки дипфейков. В частности, в них заметно несоответствие жестикуляции, звука, мимики и движений глаз. Например, если человек обычно жестикулирует, а на изображении его руки неподвижны, то должно появиться подозрение, что перед вами дипфейк.
Также следует обращать внимание на несоответствие цвета и освещения, контрастов и оттенков: например, одна деталь одежды на дипфейке может быть серой, а другая черной, могут быть даже разные глаза.
Докладчица также рекомендовала следить за движениями человека: их неестественность помогает быстро определить фабрикацию. Достаточно частой чертой дипфейков является неправильное отражение: например, на некоторых видео рука «проваливается» сквозь предмет.
Фальшивку может также выдать несоответствие речи движениям губ и лица. Нередко можно заметить искажения в тембре и интонации речи знакомого человека. В созданных ИИ голосовых сообщениях звук может быть монотонным, без интонаций, а иногда, напротив, включает слишком много подъемов и спадов, что нехарактерно для отдельных людей. Зачастую искусственный интеллект оставляет в сгенерированной записи много постороннего шума из-за некорректного считывания голоса или намеренно, чтобы было сложнее распознать речь.
Чтобы распознать дипфейк, нужно использовать критическое мышление. Для проверки подлинности изображения стоит прослушать другие сообщения, проанализировать аудио- и видеозаписи, сравнивая их с оригиналом. Если собеседник просит сделать что-то срочно, нужно прервать общение и связаться с ним иным способом. Надо помнить, что реальные руководители и известные люди не будут писать в мессенджеры по важным деловым вопросам и тем более направлять голосовые сообщения.

Фото: iStock
Кроме того, важно не оставлять в интернете свои персональные данные. Чем меньше данных человека есть в Сети, тем ИИ сложнее: нейросеть учится на имеющихся записях.
«Универсальный совет: если сомневаетесь, лучше перезвонить не по мессенджеру, а по обычному телефону. Если вам присылают голосовые сообщения, то попросите еще несколько, это позволит понять аутентичность. Не надо торопиться и нервничать: нет необратимых ситуаций», — отметила эксперт.
Можно также установить программы-защитники на телефон и компьютер: такие есть у Т-Банка, Сбера и МТС.
При этом важно понимать, что раскрываемость подобных преступлений невысока, поэтому нужно быть максимально бдительными. Пока нет наказания за создание дипфейков в мошеннических и иных криминальных целях.
Эксперты предполагают, что в ближайшем будущем дипфейки будут использоваться чаще, поэтому нужно хорошо защищать персональные данные. Важно понимать, что мошенники будут пытаться пользоваться новыми ситуациями: например, в начале марта, после введения самозапрета на кредиты через «Госуслуги», гражданам начали поступать звонки от фальшивых сотрудников «Госуслуг» с требованием установить «правильное» ограничение. Цель — получение доступа к аккаунтам в системе.
Еще одним направлением криминального создания дипфейков будет распространение дезинформации через фальшивые каналы настоящих СМИ или некачественные печатные и сетевые издания.
«Важны просветительские кампании по разоблачению дипфейков. Нужно рассказывать о них ученикам, знакомым и близким, взаимно защищать друг друга от цифровых вызовов и угроз», — подытожила Кристина Чашникова.