Чем реалистичнее звучит просьба, тем выше цена ошибки.
ФБР предупредило о новой волне атак с применением голосовых дипфейков, нацеленных на американских чиновников. С начала апреля 2025 года киберпреступники активно используют искусственный интеллект для создания поддельных голосовых сообщений, выдающих себя за высокопоставленных лиц — как действующих, так и бывших представителей федеральных и региональных структур США.
Атакующие рассылают текстовые сообщения и аудиофайлы, имитирующие голоса официальных лиц, чтобы завоевать доверие жертвы. Эта тактика, сочетающая смс-фишинг (смишинг) и голосовой фишинг (вишинг), позволяет злоумышленникам выманивать доступ к аккаунтам и конфиденциальным данным. Часто в сообщениях предлагается перейти в другой мессенджер — через вредоносную ссылку, которая ведёт к компрометации устройства или учётной записи.
После захвата аккаунта одного чиновника злоумышленники получают доступ к его контактам. Это открывает путь для последующей цепочки атак с использованием уже реального адреса и голоса взломанного лица. Так киберпреступникам удаётся выманивать ещё больше информации (или даже деньги) у других госслужащих.
ФБР подчёркивает: факт получения сообщения от «высокопоставленного лица» не может быть основанием для доверия. Особенно если речь идёт о неожиданных просьбах или переводах средств. Специально для широкой публики был выпущен документ с советами , как выявлять и блокировать такие атаки.
Угроза дипфейков не нова: ещё в 2021 году ФБР предсказывало , что ИИ-манипуляции с голосом, изображением, текстом и видео станут частью зловредных информационных операций. В 2022 году Европол также предупредил , что дипфейки вскоре начнут активно использоваться в схемах «мошенничества гендиректора» и фальсификации доказательств.
Американский Минздрав (HHS) в 2024 году сообщал о похожих инцидентах: киберпреступники с помощью синтезированного голоса пытались обмануть сотрудников ИТ-поддержки. А чуть позже LastPass столкнулся с атакой, в ходе которой неизвестные сымитировали голос главы компании Карима Туббы и пытались убедить сотрудника выполнить мошеннические действия.
Всё это подтверждает: голос больше не может служить гарантией подлинности. Дипфейки становятся всё реалистичнее, и старые методы распознавания обмана — больше не работают.