По оценкам Центра финансовых услуг Deloitte, генеративный ИИ в рамках киберпреступности нанесет ущерб в размере $40 млрд к 2027 году, что значительно превышает показатель в $12,3 млрд в 2023 году. Это соответствует среднегодовому темпу роста на уровне 32%. Далее мы рассмотрим пять самых распространенных мошеннических схем с использованием искусственного интеллекта, прогресс которых мы увидим в следующем году
- Подавляющее большинство атак BEC будет связано с искусственным интеллектом и дипфейками
Атаки Business Email Compromise (BEC), использующие дипфейки, станут серьезной угрозой в 2025 году. Например, в этом году в Гонконге мошенники использовали видео- и аудиодипфейки, чтобы выдавать себя за руководителей компаний на Zoom-звонках, убеждая сотрудников перевести почти $30 млн.
По данным Medius, около 53% бухгалтеров в США сталкивались с дипфейковыми атаками в 2023 году. Кроме того, VIPRE Security Group сообщает, что 40% BEC-мейлов уже полностью генерируется ИИ.
«С развитием технологий риски растут экспоненциально», — отметил Усман Чоудхари, директор по продуктам и технологиям в Security Magazine.
- Романтические мошенничества с использованием ИИ-чатботов распространятся
Недавно известный нигерийский киберпреступник опубликовал видео, где ИИ-чатбот общается с жертвой, выдавая себя за «влюбленного» военного врача. Чатботы говорят без акцента, что повышает доверие жертв. Эксперты предупреждают, что такие автономные чатботы станут массовым инструментом мошенников в 2025 году.
- «Свиные забои» перейдут на ИИ-схемы
Мошенники активно используют ИИ для масштабирования так называемых «свиных забоев» (pig butchering — схемы, где жертву долго вводят в заблуждение — «откармливают», чтобы выманить значительные суммы денег). Например, программное обеспечение «Instagram Automatic Fans» ежеминутно рассылает тысячи сообщений, таких как: «Мой друг порекомендовал вас. Как дела?». Кроме того, дипфейки, голосовые клоны и чатботы позволят значительно увеличить масштабы таких операций.
Интересное по теме: НБУ планирует обновить системы киберзащиты банков
- Атаки с дипфейковым шантажом нацелятся на топ-менеджеров
В Сингапуре мошенники с помощью дипфейковых видео шантажировали 100 чиновников, требуя $50 тыс. в криптовалюте. Видео создавали на основе открытых фото с LinkedIn и YouTube. Ожидается, что такие схемы шантажа распространятся на компании во всем мире.
- ИИ будет способствовать развитию социальной инженерии и распространению вредоносного ПО
Искусственный интеллект все чаще используется киберпреступниками для совершенствования методов социальной инженерии и разработки вредоносного программного обеспечения. Благодаря ИИ, фишинговые атаки становятся более убедительными, а вредоносные программы — более сложными для обнаружения. Это повышает эффективность деятельности киберпреступников и усложняет противодействие их методам.
Подробнее о том, чем опасны киберпреступления через ransomware и как защититься от программ-вымогателей, читайте в материале.
Это лишь несколько примеров того, как ИИ может и будет использоваться преступниками в 2025 году. Нужно быть готовым, что мошенники могут имитировать голоса близких или коллег, чтобы выманить конфиденциальную информацию или средства (собирают образцы голосов довольно часто боты, звоня жертве под видом соцопроса). Всегда проверяйте подозрительные запросы и будьте бдительны, чтобы не стать жертвой таких обманов.
2025 год станет переломным моментом в развитии ИИ-мошенничества, чему будет способствовать доступность, общее развитие и распространенность преступных схем и инструментов.
Ознакомьтесь с другими популярными материалами:
От ограничений НБУ до принятия Меморандума: как трансформируется платежный рынок Украины
EBA разрабатывает новые требования для криптоуслуг для противодействия отмыванию денег
На Revolut подали в суд из-за мошенничества: детали
Вспомогательные материалы forbes.com.