Дипфейк – это искусственная генерация изображения и звука, для которой нужны исходные данные человека, чей образ пытаются создать мошенники. Во многих соцсетях контент по умолчанию находится в свободном доступе, что облегчает работу преступникам. Закрытые аккаунты тоже не становятся препятствием, их “угоняют” или взламывают с помощью социальной инженерии. С развитием искусственного интеллекта тренд на дипфейки в фишинговых атаках усилится, уверены эксперты.

Автор: Никита Леокумович, руководитель управления цифровой криминалистики и киберразведки Angara Security

Реклама – двигатель дипфейков

В 2022 г. в мессенджерах, соцсетях и на комьюнити-площадках сформировался и до сих пор не сбавляет обороты еще один киберкриминальный тренд – сбор аудиоданных под видом приглашения на озвучку рекламы и фильмов. В 2022 г. в российском онлайн-сегменте зафиксировано почти 5 тыс. таких сообщений, а в прошлом году эта цифра выросла до 7 тыс. Обычно в таком объявлении предлагается заработать на большом медиапроекте, сумма гонорара варьируется в пределах от 0,3 до 5 тыс. руб., но особенно насторожить потенциальную жертву должно главное условие: от нее требуется аудиофайл, похожий на телефонный звонок.

Дело в том, что речь человека сильно меняется в зависимости от ситуации: монолог на камеру в прямом эфире, живой разговор с другом и телефонная беседа очень различаются по интонации и тембру, поэтому преступники стараются сразу получить самый удобный для генерации звука вариант – имитацию телефонного звонка. Аудиофайлы в сочетании с персональными данными владельца голоса создают новое оружие социальной инженерии – аудио- и видеофейки, которые затем используются для фишинговых атак.

Фейковые боссы

В 2024 г. в России стали распространяться мошеннические схемы с использованием дипфейков. На этот раз в зоне риска оказались любители голосовых сообщений: дипфейк генерируется злоумышленниками с помощью образцов речи владельца взломанного аккаунта в Telegram или другом мессенджере. Подобную технику применили в атаке на одну из российских компаний в январе 2024 г.: от имени владельца взломанного аккаунта мошенники разослали сгенерированные голосовые сообщения людям, которые находились с ним в одних чатах. В международной практике такие кейсы тоже уже не редкость: преступники имитируют присутствие человека на видеоконференцсвязи и от его имени убеждают сотрудника перевести крупную сумму.

В России также широко распространился преступный кейс “фейковый руководитель”. В этой схеме мошенники используют фейковый аккаунт главы организации, связываются с ее сотрудниками и просят перевести деньги. Разумеется, дипфейки в такой схеме в разы усиливают эффект.

Защита от дипфейков: уголовная ответственность или собственная бдительность?

Киберпреступники достаточно быстро внедряют дипфейки в новые и новые схемы мошенничества. Если в 2019 г. примерно 96% дипфейков были связаны с эротическим контентом, то сегодня дипфейки говорят голосом известных людей, пишут песни от имени популярных исполнителей и собирают у поклонников деньги якобы на новый альбом. Способность искусственного интеллекта имитировать реальный голос человека – это риск совершенно нового порядка, с которым столкнулось общество.

Со стороны финансового сектора банки усиливают защиту и проверку клиентов: при звонках сотрудники стараются задавать больше вопросов, чтобы точно идентифицировать клиента. В России также планируют рассмотреть законопроект об уголовной ответственности за использование технологии дипфейков в преступных целях. Его авторы предлагают установить наказание в виде штрафов вплоть до 1,5 млн руб. либо лишения свободы сроком до 7 лет, в зависимости от тяжести совершенного преступления.

Для борьбы с дипфейками разрабатываются технологические инструменты. Например, отечественная система мониторинга аудиовизуального контента

“Зефир” для выявления дипфейка использует самостоятельно обученную модель, а для поиска лица – модель Retina Face Onxx. Лучшим вариантом защиты от угрозы генеративного ИИ становится другой ИИ.

Рекомендации в заключение

Противодействие дипфейкам теперь становится частью киберграмотности. Каждый современный человек должен владеть этим навыком. Вот несколько приемов, которые помогут распознать потенциальный сгенерированный ИИ образ.

Если вы общаетесь по видеосвязи, обращайте внимание на освещенность лица, его четкость и мимику: размытое изображение, нечеткие границы лица, странные тени, застывшая мимика или неестественный оттенок кожи могут говорить не о плохом качестве связи, а о дипфейке. Если ваш собеседник спокойно вертит головой, прикасается к лицу или пьет из чашки во время разговора – скорее всего, все в порядке, такие детали мошенникам пока не под силу.
В аудиозвонке распознать подделку пока сложнее, но должно насторожить отсутствие эмоций и монотонность, незнакомые интонации. В случае любого подозрительного контакта стоит прервать сеанс связи и самостоятельно связаться с тем, кого вы считаете собеседником.

Нужно принять факт, что дипфейки с нами надолго. Это новая угроза в кибербезопасности, которая будет только совершенствоваться. Рынок, финансовые системы и экспертиза кибербезопасности будут, со своей стороны, адаптироваться и подбирать методы противодействия. А в компаниях стоит непрерывно повышать цифровую грамотность сотрудников, проводить регулярные информационные кампании и обучать коллег методам выявления фейков.

ITSec_articles

Read More

Ваша реакция?
+1
0
+1
0
+1
1
+1
0
+1
0
+1
0
+1
0
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x