Почему кнопка «Оплатить» стала минным полем и как его разминировать.
Искусственный интеллект давно вышел за пределы научных лабораторий: он пишет музыку, диагностирует болезни и рекомендует сериалы. Но у любого инструмента есть теневая сторона. Пока бизнес внедряет нейросети, киберпреступники превращают те же алгоритмы в фабрики мошеннических схем. В результате на горизонте появился «умный» фрод: атаки стали вычислительно сложнее, тоньше психологически и, что особенно тревожно, практически невидимы традиционным системам мониторинга. В этой статье разбираемся, как именно ИИ усилил старые схемы, какие новинки подстерегают интернет-ритейл, и чем ответили финтех-платформы. Материал рассчитан как на начинающих предпринимателей, так и на специалистов по информационной безопасности.
Ещё десять–пятнадцать лет назад онлайн-мошенничество напоминало ремесло: «артист» рассылает фишинговые письма, дожидается пары доверчивых ответов и радостно записывает данные карт. Скорость ограничивалась человеческой усидчивостью, а количество ошибок выдавало преступника быстрее, чем он успевал вывести деньги. Появление публичных облаков и дешёвых GPU всё изменило. Теперь злоумышленник обучает языковую модель, которая за минуту генерирует тысячу правдоподобных писем без опечаток и вшивает тексты в поддельные лендинги.
Важную роль сыграла токенизация платежей и NFC-оплаты: данные карт перестали плавать по сети в «сыром» виде, что вынудило киберпреступников идти в сторону кражи учётных записей и социальных манипуляций. Перенос фокуса с технических уязвимостей на человеческий фактор совпал с бумом больших языковых моделей. Нейросеть учится на корпусе реальных переписок и имитирует тон реальной техподдержки, а значит, письма-подделки стали почти неотличимы от сервисных уведомлений крупных ритейлеров.
Последний толчок дала генеративная графика. Deepfake-движки не просто создают забавные ролики в соцсетях; они клеят «идеальные» фотографии паспортов, селфи с документом и даже короткие видео для KYC-процедур. Итог: атака массовая, дешёвая и почти полностью автоматизирована. Человек-оператор нужен только для настроек бизнес-логики.
Чтобы понять серьёзность проблемы, достаточно взглянуть на статистику 2025 года. Согласно исследованию ведущих антифрод-компаний, более 50% всех случаев мошенничества теперь включают использование искусственного интеллекта. Только за первую половину 2025 года потери от дипфейк-мошенничества превысили $200 миллионов — и это лишь зафиксированная часть айсберга.
Ещё более тревожные прогнозы даёт консалтинговая компания Deloitte: к 2027 году потери от ИИ-мошенничества в США могут достичь $40 миллиардов, что представляет собой ошеломляющий рост на 32% ежегодно. Для сравнения: это больше ВВП многих развитых стран. При этом киберпреступность в целом обходится мировой экономике в $10,5 триллионов в год — если бы она была страной, заняла бы третье место по экономической мощи после США и Китая.
Особенно показательна динамика активности в даркнете. Исследователи отслеживали обсуждения дипфейков и ИИ-инструментов в Telegram-каналах: количество сообщений выросло с 47 тысяч в 2023 году до более чем 350 тысяч в 2024-м — семикратный рост за год. Это говорит не просто о популяризации технологий, а о настоящей индустриализации преступности.
Чтобы понимать масштаб угрозы, полезно разложить «чёрный» стек технологий по полочкам. В условиях свободного доступа к кодам и моделям, большинство инструментов легальны сами по себе; криминальным их делает лишь цель применения.
Большие языковые модели (LLM) умеют поддерживать контекст и выстраивать диалоги без машинного налёта. Злоумышленники подключают их к чат-ботам, выдающим себя за службу поддержки: клиент получает убедительное предложение «срочно подтвердить заказ», переходит по ссылке и добровольно вводит данные карты. По данным экспертов, 60% специалистов считают клонирование голоса одной из главных угроз современности — технология достигла такого уровня, что различить подделку становится почти невозможно даже при личном разговоре.
Midjourney-подобные движки и аудиосинтезаторы превращают десяток исходных фото в документы, которые проходят поверхностную верификацию. Плюс к тому deepfake создаёт доверие при видеозвонке: псевдо-курьер сообщает, что «не может найти адрес» и просит подтвердить оплату прямо в чате, параллельно подсунув вредоносную ссылку. В 2023 году дипфейк-атаки с заменой лиц выросли на 704%, а в финтех-секторе инциденты увеличились на 700%.
Скрипты бегло перебирают номера карт, CVV и сроки действия на десятках мелких сайтов, пока ИИ-модуль классифицирует ответы платёжных шлюзов. Как только комбинация проходит при-аутентификацию, бот мгновенно переключается на дорогостоящие покупки — чаще всего на ваш склад.
Алгоритм смешивает фрагменты реальных анкет: имя из одной базы, дату рождения из другой, адрес доставки из третьей. Получается личность, которой нет на свете, но которой банки и маркетплейсы верят, потому что данные выглядят правдоподобно и частично совпадают с реальностью. Синтетическое мошенничество показало рост в 31% только за прошлый год и считается одним из быстрорастущих видов финансовой преступности.
Новое поколение ИИ-управляемых вирусов умеет постоянно изменять свой код, адаптируясь к защитным системам в режиме реального времени. В отличие от традиционных вредоносных программ с фиксированными сигнатурами, такие алгоритмы изучают окружение, выявляют слабости в системе защиты и модифицируют свою тактику на лету. Антивирусы, построенные на поиске известных угроз, против них практически бессильны.
Интернет-ритейл отличается высокой скоростью оборота и минимальным человеческим участием на стадии оплаты. Это даёт мошеннику огромное поле для манёвра. Ниже — самые рабочие сценарии, которые уже сегодня фиксируют аналитики.
Злоумышленник покупает на даркнет-форуме связку «почта + пароль», после чего обучает бота имитировать привычное поведение жертвы: просматривает похожие товары, задерживается на знакомых категориях, добавляет мелочи в избранное. Когда алгоритм «нагревает» профиль до правдоподобного состояния, начинается реальная атака — обычно выкуп бонусов, подарочных сертификатов или товаров с быстрой перепродажей.
Боты мониторят страницы купонов и пробуют тысячи комбинаций промокодов, создавая иллюзию «бурной активности». В результате маркетолог видит взрывной рост регистраций, но в аналитике реальные покупки не коррелируют с расходами на скидки. Иногда злоумышленники перепродают «бесплатные» скидочные коды на сторонних площадках.
Классическая схема приобретает цифровой блеск. Мошенник размещает товар на маркетплейсе по цене ниже официальной. Получив оплату от доверчивого покупателя, он оформляет заказ в вашем магазине, оплачивая его украденной картой. Магазин отправляет товар конечному клиенту, а настоящий владелец карты оспаривает списание. Итог: ритейлер теряет товар, деньги и впадает в репутационный штопор.
Одна из самых зловещих новинок — схема «цифрового ареста», которая активно распространяется из Юго-Восточной Азии. Мошенники выдают себя за представителей правоохранительных органов, используя дипфейки с изображениями реальных чиновников и поддельные документы для психологического давления на жертв. The Indian Express сообщает о более чем 92 тысячах случаев таких атак только в Индии с начала 2024 года. Преступники изолируют жертву, создают атмосферу паники и требуют немедленной оплаты штрафов или залогов. По данным BBC, 40% новой волны «цифровых арестов» можно проследить до организованных групп в Юго-Восточной Азии.
Современное киберпреступничество давно перестало быть уделом одиночек-хакеров. В регионах вроде Юго-Восточной Азии действуют настоящие мошеннические фермы — промышленные комплексы площадью до 25 акров, где трудятся тысячи «операторов». Эти предприятия работают с использованием принудительного труда и часто связаны с торговлей людьми.
Особую тревогу вызывает появление «ИИ-моделей» — людей, которые продают свою внешность для создания дипфейков. В объявлениях на специализированных форумах можно встретить предложения вроде «Работаю ИИ-моделью, ранее работала киллером в pig butchering compounds». Такие «исполнители» предоставляют мошенникам фотографии и видео своего лица, которые затем используются для создания синтетических личностей в массовых атаках.
Координация происходит через сотни Telegram-каналов, где начинающие мошенники связываются с организованными группами по всему миру. Это превратило интернет-преступность в настоящую индустрию с чётким разделением труда, технической поддержкой и даже HR-отделами.
Светлая сторона ИИ не отстаёт. Компании-эквайеры и специализированные антифрод-платформы инвестируют в исследования, создавая многоуровневую оборону. По данным исследований, 90% финансовых институтов уже используют ИИ для борьбы с мошенничеством, а две трети внедрили такие решения за последние два года. Ниже — ключевые подходы, которые уже доказали эффективность.
Системы поведенческой биометрии анализируют сотни микропривычек пользователя: скорость набора текста, углы наклона телефона, траекторию мыши. Если «привычный» клиент вдруг начинает нажимать клавиши с ровной машинной скоростью, алгоритм останавливает транзакцию на дополнительную проверку. Такие системы создают уникальные «отпечатки» поведения, которые практически невозможно воспроизвести искусственно.
Вместо одного «бинарного» решения (пропустить/заблокировать) современный ML-контур строит десятки оценок риска: геолокация, модель браузера, история возвратов, плотность заказов на единицу времени. Эту матрицу анализирует метамодель, сравнивая по тысячам признаков буквально в режиме онлайн. Решение возвращается шлюзу меньше чем за 300 мс, чтобы не раздражать легальных покупателей.
Если раньше хватало записать IP-адрес и User-Agent, то теперь в действие вступают тонкие сигналы: аудио-кодеки, список шрифтов, частота обновления экрана, поведение WebGL. Совпасть в десятках параметров сразу почти невозможно; малейшее расхождение увеличивает скор-балл риска.
Специализированные платформы объединяют банки, PSP и ритейлеров в единый пул данных. Если одна сторона видит подозрительную карту или девайс, сигнал за доли секунды разлетается по всей сети, снижая «время жизни» мошеннической сессии практически до нуля.
Новый тренд в защите — системы цифровой идентификации, которые используют биометрию для противодействия дипфейкам. Такие кошельки включают технологии 1:1 верификации лица, проверки на дубликаты и определения живости (liveness detection), что делает их гораздо более устойчивыми к атакам с подменой личности. В рамках EU Digital Identity Wallet Framework, который вступил в силу в прошлом году, каждое государство-член ЕС должно предложить цифровой кошелек идентичности к 2026 году.
Государственные структуры не остаются в стороне от цифровой гонки вооружений. Федеральная торговая комиссия США (FTC) активно работает над защитой потребителей от ИИ-мошенничества, подчёркивая, что «не существует исключений в законах для искусственного интеллекта». Компании, внедряющие ИИ-системы, обязаны соблюдать существующие правила защиты потребителей и конкуренции.
В 2025 году FTC запустила несколько инициатив: завершила работу над правилами борьбы с подменой государственных органов и бизнесов (что особенно актуально в эпоху дипфейков), а также объявила конкурс Voice Cloning Challenge для разработки решений по обнаружению клонирования голоса. Комиссия подчеркивает необходимость применения эффективных мер мониторинга в режиме реального времени и создания надёжных барьеров для предотвращения вреда.
Администрация Трампа тоже обратила внимание на проблему, выпустив серию исполнительных указов по ИИ. Особое внимание уделяется устранению «идеологических предрассудков» в ИИ-системах и созданию регулятивных песочниц для безопасного тестирования новых технологий. При этом создаётся специальное подразделение SEC по кибербезопасности и новым технологиям (CETU), которое будет заниматься правоприменением в области мошенничества с использованием ИИ и машинного обучения.
Антифрод-экосистема может пугать обилием терминов, но начать защищаться реально уже сегодня. Не всё решают многомиллионные контракты; часто достаточно дисциплины и четких регламентов.
Крупная площадка столкнулась с резким ростом возвратов по мотиву «товар не получен». LLM-чат-боты писали обращения от имени клиентов, подбирая эмоциональный тон и ссылки на внутренние регламенты. После внедрения поведенческого анализа писем (частотные маркеры лексики, время отправки, атипичная зона IP) поток chargeback упал на 73 % за три недели.
Боты тестировали до пяти тысяч номеров карт за ночь, скрываясь под ротацией прокси. Компания подключила облачный антифрод, который проверяет корреляцию «стоимость + частота покупок + страна BIN». Атаки прекратились через сутки; кэшбек за издержки на комиссии вернулся по партнёрской страховке.
Крупная криптоплатформа зафиксировала 654% рост дипфейк-инцидентов между 2023 и 2024 годами. Мошенники использовали ИИ-генерированные видео знаменитостей для продвижения поддельных инвестиционных схем, что привело к потерям клиентов на $4,6 миллиарда только в 2024 году. Компания внедрила систему детекции дипфейков, которая анализирует пиксели, водяные знаки и изменения в файлах изображений для создания уникального «отпечатка» цифрового контента. За первые три месяца работы система заблокировала 89% попыток регистрации с поддельными документами.
Мобильные платформы создают особые вызовы для антифрод-систем. Смартфоны хранят гораздо больше персональной информации, чем настольные компьютеры, но при этом многие традиционные методы детекции (например, анализ поведения мыши) здесь не работают. Мошенники активно этим пользуются.
ИИ-боты научились имитировать мобильные жесты: свайпы, тапы, изменение ориентации экрана. Они анализируют акселерометр и гироскоп, чтобы создать правдоподобные паттерны движения устройства. Некоторые алгоритмы даже учитывают время суток и местоположение пользователя, чтобы синхронизировать активность с естественными ритмами человека.
Особую опасность представляют мобильные банковские троянцы нового поколения, которые используют машинное обучение для адаптации к защитным системам конкретного банка. Такие вредоносы могут изучать интерфейс банковского приложения, перехватывать SMS-коды и даже создавать поддельные push-уведомления, неотличимые от настоящих.
ИИ-мошенничество не знает границ, поэтому эффективная борьба требует международной координации. Всемирный экономический форум активно продвигает инициативы по созданию глобальных стандартов цифровой идентификации и обмену информацией об угрозах между странами.
Уже сейчас семь американских штатов сообщают, что благодаря использованию цифровых кошельков идентичности удалось предотвратить потери на сумму более $270 миллиардов во время пандемии. Европейский союз идёт ещё дальше: в рамках EU Digital Identity Wallet Framework каждая страна-член должна предложить своим гражданам цифровые кошельки идентичности к 2026 году.
Критически важным становится обмен данными между финансовыми институтами в режиме реального времени. Консорциумы крупных технологических и финансовых компаний для борьбы с онлайн-мошенничеством и криптоскамами показывают, что объединение усилий даёт результат. Математика проста: больше данных означает лучшие модели, а лучшие модели — меньше потерь.
Использование искусственного интеллекта для защиты от мошенничества поднимает сложные этические вопросы. Насколько глубоко можно анализировать поведение клиентов? Где проходит граница между безопасностью и приватностью? Как обеспечить, чтобы ИИ-системы не дискриминировали определённые группы пользователей?
Некоторые алгоритмы машинного обучения могут непреднамеренно создавать предвзятость против клиентов из определённых географических регионов или социальных групп. Например, система может посчитать подозрительными все транзакции из развивающихся стран или заблокировать клиентов, использующих устаревшие модели смартфонов.
Новые исполнительные указы администрации Трампа требуют, чтобы ИИ-системы были «свободны от идеологических предрассудков» и стремились к «объективной истине». Хотя это звучит разумно, на практике определить, что именно означает «объективность» в контексте алгоритмов, крайне сложно. Разработчикам антифрод-систем придётся тщательно балансировать эффективность детекции с требованиями справедливости и прозрачности.
Корневое отличие «умного» фрода от старых схем — самообучение. Однажды раскрученный бот-нетворк собирает статистику отказов и быстро «подкручивает» параметры: меняет частоту транзакций, время выхода в сеть, формат писем. Чтобы догнать его вручную, специалисту понадобится дни, а то и недели.
Финтех-отрасль отвечает симметрично. В тренде — автономные ML-конвейеры, которые не только выдают прогноз, но и самостоятельно перебирают новые гиперпараметры, стараясь опередить злоумышленника буквально на несколько часов. Дополняет картину explainable AI: прозрачная логика решения снижает регуляторные риски и ускоряет внедрение.
Особое внимание уделяется созданию ИИ-помощников для специалистов по безопасности. Такие системы могут анализировать огромные объёмы документов и транзакционных данных, выявляя сложные паттерны и аномалии с поразительной точностью. Языковые модели особенно хорошо справляются с обработкой неструктурированного текста, позволяя аудиторам быстро просеивать регулятивные документы, внутренние политики и коммуникации с клиентами.
Однако идеальной защиты не существует. Стратегия выигрывает там, где человек и машина взаимодействуют органично. Аналитик формирует гипотезу, проверяет выборку, а модель масштабирует проверку на весь трафик. Как только одно звено выпадает, схема рушится — этим пользуются хакеры.
Эксперты ожидают дальнейшей эскалации противостояния. К концу 2025 года аналитики прогнозируют появление ИИ-систем, способных создавать полностью синтетические компании: с веб-сайтами, социальными профилями, отзывами клиентов и даже историей деятельности. Такие «фантомные» бизнесы будут использоваться для отмывания денег и создания ложного доверия.
Вероятно усиление атак на саму ИИ-инфраструктуру защиты. Мошенники будут пытаться «отравить» обучающие данные антифрод-систем, подсунув им ложную информацию, которая снизит точность детекции. Появятся специализированные adversarial attacks — алгоритмы, разработанные специально для обмана нейросетей.
В то же время защитники получат новые инструменты. Ожидается прорыв в области квантовых вычислений, который может революционизировать криптографию и методы аутентификации. Биометрические системы станут более сложными, анализируя не только лицо и голос, но и микромимику, сердечный ритм и даже паттерны походки.
Умный фрод — это эволюция, а не революция. Мошенники взяли классические приёмы и умножили их на мощь машинного обучения. Хорошая новость: тот же ИИ доступен и защитникам. Главное — не ограничиваться модным словом «нейросеть» в презентациях, а строить системный процесс: регулярный аудит рисков, обмен информацией с эквайерами, обучение персонала и быстрая итерация правил.
Статистика 2025 года показывает масштаб вызова: более половины мошенничества уже использует ИИ, потери исчисляются сотнями миллионов долларов, а рост активности в даркнете превышает 700% в год. При этом 92% финансовых институтов фиксируют использование генеративного ИИ преступниками. Это уже не будущая угроза — это сегодняшняя реальность.
Ключ к успешной защите лежит в понимании того, что технология — это лишь инструмент. Настоящая безопасность достигается комбинацией передовых алгоритмов, грамотных специалистов, прозрачных процессов и международного сотрудничества. Чем динамичнее и прозрачнее ваша антифрод-цепочка, тем меньше шансов, что атака перерастёт в кризис.
Впереди нас ждёт гонка без финиша, где каждая сторона постоянно совершенствует свои методы. Но у защитников есть важное преимущество: в отличие от мошенников, которые работают в тени, безопасность можно строить открыто, обмениваясь опытом и объединяя усилия. При выборе конкретных решений полезно изучить сравнительные обзоры антифрод-решений с таблицами функций и реальных кейсов.