close-btn

Преступники создали собственные клоны ChatGPT и Bard: что они могут

Киберпреступники разработали собственные языковые AI-модели, которые будут помогать им в фишинге и создании вредоносного программного обеспечения. В Darknet уже можно найти первые версии

ChatGPT, Bard, Cybercriminals

ChatGPT, Bard, Cybercriminals Фото: freepik.com, unsplash.com

Через несколько месяцев после того, как ChatGPT от OpenAI перевернул экономику стартапов, киберпреступники и хакеры начали создавать собственные версии технологии генерации текста. Эти системы могут, среди прочего, расширить возможности злоумышленников в написании вредоносных или фишинговых электронных писем, которые обманом заставляют людей передавать свои логины и пароли.

С начала июля злоумышленники на форумах и торговых площадках в Darknet рекламируют две большие языковые модели (LLM), которые, по их словам, они разработали. Эти системы, утверждается, имитируют функции ChatGPT и Bard, генерируют ответы на любые вопросы пользователей. Но в отличие от LLM, созданных легальными компаниями, эти чат-боты продаются для незаконной деятельности.

Существуют нерешенные вопросы о подлинности чат-ботов. Киберпреступники — не совсем надежные персонажи, и остается вероятность того, что они пытаются быстро заработать, обманывая друг друга. Несмотря на это, развитие событий происходит в то время, когда мошенники используют ажиотаж вокруг генеративного искусственного интеллекта для собственной выгоды.

На что способны ИИ от киберпреступников? Анализ WormGPT и FraudGPT

По данным исследователей безопасности, отслеживающих эту активность, в течение последних недель на «темных» интернет-форумах рекламировались два чат-бота — WormGPT и FraudGPT. LLM, разработанные крупными технологическими компаниями, такими как Google, Microsoft и OpenAI, имеют ряд предохранителей и мер безопасности, чтобы предотвратить их неправомерное использование. Если вы попросите их создать вредоносное программное обеспечение или использовать язык вражды, они, как правило, откажутся.

Авторы теневых LLM утверждают, что их боты пренебрегают такими системами безопасности и этическими барьерами. Впервые WormGPT был замечен независимым исследователем кибербезопасности Дэниелом Келли, который сотрудничал с фирмой SlashNext, чтобы детализировать полученные данные. Разработчики WormGPT утверждают, что инструмент предлагает неограниченное количество символов и форматирование кода.

«Модели искусственного интеллекта особенно полезны для фишинга, в частности потому, что они снижают входные барьеры для многих начинающих киберпреступников, — отмечает Келли. — Многие утверждают, что большинство киберпреступников могут написать электронное письмо на английском языке, но это не обязательно так для многих мошенников».

Во время тестирования системы, пишет Келли, ее попросили создать электронное письмо, которое можно было бы использовать как часть аферы со взломом деловой электронной почты, когда якобы генеральный директор пишет менеджеру по работе с клиентами, чтобы сообщить о необходимости срочного платежа.

«Результаты были тревожными, — пишет Келли в своем исследовании. — Система создала электронное письмо, которое было не только чрезвычайно убедительным, но и стратегически хитрым».

Интересное по теме: Появилась новая схема взлома криптокошельков на базе iOS

AI

AI Фото: freepik.com

Реклама WormGPT и FraudGPT в Даркнете

В сообщениях на форуме разработчик WormGPT утверждал, что система построена на GPTJ — языковой модели с открытым исходным кодом, которая была разработана исследовательской группой EleutherAI в 2021 году. Согласно исследованию Келли, они отказались раскрыть наборы данных, которые они использовали для обучения системы.

Между тем создатель FraudGPT заявил о большем потенциале своей системы, предположив, что она может создавать вредоносное программное обеспечение, которое невозможно обнаружить, находить утечки и уязвимости, а также создавать текст, который можно использовать в онлайн-мошенничестве. Ракеш Кришнан, старший аналитик угроз в фирме Netenrich, которая обнаружила FraudGPT, говорит, что человек, который продает его, рекламировал продукт на нескольких «темных» форумах, а также на каналах Telegram.

Кришнан отметил, что создатель системы опубликовал видео, на котором видно, что чат-бот работает и генерирует мошенническое электронное письмо. Они также пытались продать доступ к системе за $200 в месяц или за $1700 в год.

По словам аналитика, во время разговора разработчик FraudGPT утверждал, что уже имеет несколько сотен подписчиков. В свою очередь создатель WormGPT, похоже, получал платежи на общий для них адрес криптовалютного кошелька.

«Все эти проекты находятся в зачаточном состоянии, — говорит Кришнан. — Мы не получили много отзывов о том, покупают ли люди или используют эти системы.

Действительно ли для киберпреступников создали уникальный «чудодейственный» инструмент?

Несмотря на широкую рекламную кампанию в Даркнете достоверной информации о реальности WormGPT и FraudGPT, а также о полноценности их функционала недостаточно. Очень сложно пока проверить состав и легитимность этих систем. При этом, предыдущие исследования аналитиков показывают, что киберпреступники нередко обманывают других мошенников.

Сергей Шикевич, руководитель группы разведки угроз в компании Check Point (мощный IT-бренд по кибербезопасности со штаб-квартирой в Тель-Авиве, Израиль) говорит, что есть определенные намеки на то, что люди уже активно используют WormGPT.

«Похоже, что существует реальный инструмент», — говорит Шикевич. По его словам, продавец, который стоит за инструментом, относительно надежный и имеет историю на форумах по киберпреступности.

Шикевич добавляет, что на одно его сообщение о WormGPT поступило более 100 ответов, хотя некоторые из них утверждают, что программа не очень соответствует их запросам, и они были не в восторге.

Шикевич менее уверен в подлинности FraudGPT. При этом разработчик этой системы утверждает, что у него также есть и другие AI: DarkBard и DarkBert.

Популярное по теме: Зафиксирована новая вспышка кибератак: как защититься

AI

Фото: pixabay.com

Инструменты AI от киберпреступников не дотягивают до оригиналов? Предупреждение правоохранителей

Исследователь Check Point говорит, что нет никаких признаков того, что любая из систем — более мощная, чем ChatGPT, Bard или другие коммерческие LLM.

Дэниел Келли считает, что заявления о вредоносных LLM, созданные до сих пор, «несколько преувеличены». Но он добавляет: «это не обязательно отличается от того, что создают легальные компании». По его мнению, преступники обязательно воспользуются бумом искусственного интеллекта.

ФБР США предупредило, что киберпреступники рассматривают возможность использования генеративного ИИ в своей работе, также европейское правоохранительное агентство Европол выступило с аналогичным предупреждением. Правоохранительные органы говорят, что киберпреступники привлекают в свои разработки множество экспертов, в том числе и юристов, чтобы выйти на новый уровень.

Киберпреступники всегда пользуются трендами

Каждый раз, когда любой новый продукт, услуга или событие привлекает внимание общественности — от фильма о Барби до пандемии Covid-19 — мошенники спешат включить его в свою хакерскую артиллерию. До сих пор мошенники обманом заставляли людей загружать вредоносное ПО для кражи паролей с помощью фальшивой рекламы ChatGPT, Bard, Midjourney и других генеративных систем искусственного интеллекта на Facebook.

Сегодня же использование ИИ мошенниками выходит на новый уровень. В частности, исследователи из компании Sophos (эксперты в области кибербезопасности) заметили интересные тенденции, когда операторы различных мошеннических компаний ошибались и вставляли в текст переписки сгенерированные искусственным интеллектом фразы, вроде: «Как языковая модель я не имею чувств и эмоций, как люди».

Также хакеры похищали токены, которые предоставляли им доступ к API OpenAI и чат-ботам в больших масштабах.

В своем отчете по WormGPT Келли отмечает, что киберпреступники часто делятся джейлбрейками (механизм взлома, например, телефонов), которые позволяют обойти ограничения безопасности, установленные разработчиками популярных LLM. Но даже неограниченные версии этих моделей могут, к счастью, не быть столь полезными для киберпреступников в их нынешнем виде.

Шикевич, исследователь Check Point, говорит, что даже когда он видел, как киберпреступники пытались использовать общедоступные модели, они не были эффективными.

«Они могут создавать штаммы программ-вымогателей, воров информации, но не лучше, чем даже рядовой разработчик», — отмечает эксперт.

При этом он предупредил, что на форумах по киберпреступности активно обсуждают создание собственных клонов известных LLM систем, которые, как ожидается, будут только развиваться. Поэтому как бизнесу, так и физлицам стоит подготовиться к возможной новой волне кибератак.

Ознакомьтесь с другими популярными материалами:

Началось расследование в отношении OpenAI: в чём обвиняют

Чем будет заниматься xAI — новая компания Илона Маска

Moody’s вместе с Microsoft и OpenAI готовят революционную технологию для финтеха

google news