Дипфейки: как мошенники используют новые технологии обмана

time 15.08.2022

Дипфейки – это фото, видео или аудиозапись, обработанные с помощью искусственного интеллекта. Термин «deepfake» произошел от двух слов – «глубокий» и «фальшивый. 

Данная технология позволяет оживить несуществующих людей, подделать любой голос, мимику, добавить в речь слова, которые человек никогда не произносил. Для мошенников дипфейк является идеальным инструментом для совершения кибератак и кражи конфиденциальных данных граждан. Fingramota.kz расскажет подробнее. 

Технология дипфейков основана на мощнейших нейросетях, с помощью которых можно генерировать любые фото- и видеоизображения, манипулировать такими биометрическими данными, как тональность голоса, выражение лица человека. Благодаря дипфейкам можно создавать события, которые никогда не происходили, добавить возраст человеку, или, наоборот, сбросить ему несколько десятков лет, доснять фильм с актером, которого нет в живых, оживить фотографию. И этим активно пользуются продюсеры, режиссеры, маркетологи, рекламщики и … мошенники.

Что могут сделать злоумышленники?

С помощью дипфейков злоумышленники могут:

- подделать чужую личность для того, чтобы получить доступ к банковскому счету, обналичить его и оформить подставные кредиты;

- выкрасть данные умершего человека, «оживить» его для получения доступа к банковским онлайн-сервисам;

- синтезировать нового «человека», которого не существует в природе, используя его для совершения крупных финансовых транзакций и изощренных схем кредитного мошенничества.

Как это происходило на практике?

Дипфейки стали использоваться сравнительно недавно, в интернете поддельные видео на основе этой новейшей технологии появились пять лет назад. А в 2019 году прогремела первая крупная афера в мире.

В Великобритании киберпреступники с помощью искусственного интеллекта подделали голос главы крупной энергетической компании и даже его легкий немецкий акцент. Они позвонили к исполнительному директору и под предлогом срочности потребовали перевести 220 тыс. евро в течение часа якобы поставщику. Управленец выполнил указание своего «босса», но мошенники на этом не остановились и позвонили еще два раза с просьбой совершить дополнительные платежи. Это вызвало подозрения, в результате расследование показало, что была совершена тщательно продуманная хакерская атака с использованием фейкового аудио. Но вернуть средства, как и найти злоумышленников, не удалось.

В 2020 году жертвой мошенников чуть не стал 68-летний адвокат из Филадельфии, который почти поверил звонившему «сыну». Мошенники использовали дипфейк-аудио молодого человека и позвонили его отцу с просьбой перевести 9 тыс. долларов, но, к счастью, афера была вовремя раскрыта.

В 2021 году в Китае уличили во лжи аферистов, выдававшим своим клиентам поддельные накладные. Они покупали фотографии людей и «оживляли» их с помощью технологии дипфейка, чтобы пройти систему проверки личности налоговой службы. Таким образом преступники заработали свыше 76 млн долларов.

В России также известны случаи мошенничества с помощью дипфейков. К примеру, в 2021 году мошенники создали и распространили в сети дипфейк-видео с основателем банка «Тинькофф». «Бизнесмен» призывал пользователей открыть инвестиционный счет, вложить свои средства и хорошо на этом заработать. Для этого надо было перейти по фишинговой ссылке, указанной ниже, и оставить данные о себе. Хотя видео было не очень хорошего качества, многие пользователи все же поверили ролику.

В Казахстане о случаях с мошенничества с использованием технологии дипфейка ничего неизвестно. Но, как говорится, предупрежден – значит, вооружен. Основным способом борьбы с киберпреступниками, использующими дипфейки, является повышение осведомленности пользователей о подобной схеме обмана и соблюдение цифровой гигиены.

Как не попасться на фейк?

Мошенники редко уделают должное внимание качеству своего «продукта», будь то видео, фото или аудио. Поэтому странное моргание человека, либо его отсутствие, слова невпопад, легкое заикание или роботизированный тон должны вас насторожить. Ко всему, что кажется вам неестественным, вы должны отнестись с подозрением.

Звонит близкий или знакомый и просит срочно перевести деньги? Завершите разговор и перезвоните ему сами, самостоятельно набрав его номер. Уточните, действительно ли он звонил к вам, а не мошенники.

В интернете увидели ролик, в котором публичная личность предлагает вам заработать много денег при минимальных усилиях? Не верьте глазам своим, а включите критическое мышление. Гарантированный доход обещают только мошенники. Подобным «рекламам», даже без использования дипфейков, где просто используются изображения известных и уважаемых людей, не нужно доверять. Злоумышленники сегодня активно предлагают заработать на различных инвестиционных онлайн-платформах, для участия в которых нужно оставить свои данные на фейковых сайтах и перечислить организаторам небольшие суммы.

Будьте аккуратны, только мошенники обещают «золотые горы», а взамен оставляют своих жертв у «разбитого корыта». И только мошенники заводят речь о деньгах и хотят получить от вас деньги в виде аванса, вступительного взноса, платы за дополнительные услуги. Теперь они могут делать это не напрямую, а через искусственный интеллект. Некоторые сервисы могут создать дипфейк-видео или аудио, пусть и не очень хорошего качества, только с помощью одного изображения или голосовой записи длиной в несколько секунд.

Поэтому, чтобы не попасться на уловки кибермошенников, стоит соблюдать простые правила безопасности в интернете и проявлять внимательность при любых обстоятельствах.

Интересный факт

Существует тест, который разработал Массачусетский технологический институт. Он состоит из восьми вопросов, позволяющих распознать, используется ли технология дипфейка в видео:

  • Не трансформируется ли лицо при движении?
  • Не кажется ли вам кожа на лице слишком гладкой или морщинистой? Схоже ли старение кожи со старением волос и глаз?
  • Глаза и брови. Появляются ли тени в ожидаемых местах? Дипфейк часто не может полностью передать естественную физику освещения.
  • Есть ли блики на очках? Не слишком ли их много? Изменяется ли угол бликов при движении человека?
  • Натурально ли выглядит растительность на лице? Искусственный интеллект может добавлять и удалять усы, бороду и бакенбарды, но зачастую не может передать волосы предельно естественно.
  • Выглядят ли родинки на лице настоящими?
  • Не слишком ли часто моргает человек?
  • Обратите внимание на размер и цвет губ. Соответствуют ли они остальной части лица?

Берегите себя, свои деньги и повышайте свою финансовую грамотность вместе с Fingramota.kz!

white-arrow К списку