close-btn

Злочинці створили власні клони ChatGPT і Bard: що вони можуть

Кіберзлочинці розробили власні мовні AI-моделі, які будуть допомагати їм у фішингу та створенні шкідливого програмного забезпечення. У Darknet вже можна знайти перші версії

ChatGPT, Bard, Cybercriminals

ChatGPT, Bard, Cybercriminals Фото: freepik.com, unsplash.com

Через кілька місяців після того, як ChatGPT від OpenAI перевернув економіку стартапів, кіберзлочинці та хакери почали створювати власні версії технології генерації тексту. Ці системи можуть, серед іншого, розширити можливості зловмисників у написанні шкідливих або фішингових електронних листів, які обманом змушують людей передавати свої логіни та паролі.

З початку липня зловмисники на форумах і торгових майданчиках у Darknet рекламують дві великі мовні моделі (LLM), які, за їхніми словами, вони розробили. Ці системи, стверджується, імітують функції ChatGPT і Bard, генерують відповіді на будь-які запитання користувачів. Але на відміну від LLM, створених легальними компаніями, ці чат-боти продаються для незаконної діяльності.

Існують невирішені питання щодо автентичності чат-ботів. Кіберзлочинці — не зовсім надійні персонажі, і залишається ймовірність того, що вони намагаються швидко заробити, обманюючи один одного. Незважаючи на це, розвиток подій відбувається в той час, коли шахраї використовують ажіотаж навколо генеративного штучного інтелекту для власної вигоди.

На що здатні ШІ від кіберзлочинців? Аналіз WormGPT та FraudGPT

За даними дослідників безпеки, які відстежують цю активність, протягом останніх тижнів на «темних» інтернет-форумах рекламувалися два чат-боти — WormGPT і FraudGPT. LLM, розроблені великими технологічними компаніями, такими як Google, Microsoft і OpenAI, мають низку запобіжників і заходів безпеки, щоб запобігти їхньому неправомірному використанню. Якщо ви попросите їх створити шкідливе програмне забезпечення або використовувати мову ворожнечі, вони, як правило, відмовляться.

Автори тіньових LLM стверджують, що їх боти нехтують такими системами безпеки та етичними бар’єрами. Вперше WormGPT помітив незалежний дослідник кібербезпеки Деніел Келлі, який співпрацював з фірмою SlashNext, щоб деталізувати отримані дані. Розробники WormGPT стверджують, що інструмент пропонує необмежену кількість символів і форматування коду.

«Моделі штучного інтелекту особливо корисні для фішингу, зокрема тому, що вони знижують вхідні бар’єри для багатьох кіберзлочинців-початківців, — зазначає Келлі. — Багато хто стверджує, що більшість кіберзлочинців можуть написати електронний лист англійською мовою, але це не обов’язково так для багатьох шахраїв».

Під час тестування системи, пише Келлі, її попросили створити електронний лист, який можна було б використати як частину афери зі зламом ділової електронної пошти, коли нібито генеральний директор пише менеджеру по роботі з клієнтами, щоб повідомити про необхідність термінового платежу.

«Результати були тривожними, — пише Келлі у своєму дослідженні. — Система створила електронного листа, який був не лише надзвичайно переконливим, але й стратегічно хитрим».

Цікаве по темі: З’явилася нова схема злому криптогаманців на базі iOS

AI

AI Фото: freepik.com

Реклама WormGPT та FraudGPT в Даркнеті

У повідомленнях на форумі розробник WormGPT стверджував, що система побудована на GPTJ — мовній моделі з відкритим вихідним кодом, яка була розроблена дослідницькою групою EleutherAI у 2021 році. Згідно з дослідженням Келлі, вони відмовилися розкрити набори даних, які вони використовували для навчання системи.

Тим часом творець FraudGPT заявив про більший потенціал своєї системи, припустивши, що вона може створювати шкідливе програмне забезпечення, яке неможливо виявити, знаходити витоки та вразливості, а також створювати текст, який можна використовувати в онлайн-шахрайстві. Ракеш Крішнан, старший аналітик загроз у фірмі Netenrich, яка виявила FraudGPT, каже, що людина, яка продає його, рекламувала продукт на кількох «темних» форумах, а також на каналах Telegram.

Крішнан зазначив, що творець системи опублікував відео, на якому видно, що чат-бот працює і генерує шахрайський електронний лист. Вони також намагалися продати доступ до системи за $200 на місяць або за $1700 на рік.

За словами аналітика, під час розмови розробник FraudGPT стверджував, що вже має кілька сотень підписників. В свою чергу творець WormGPT, схоже, отримував платежі на спільну для них адресу криптовалютного гаманця.

«Всі ці проєкти перебувають у зародковому стані, — каже Крішнан. — Ми не отримали багато відгуків про те, чи люди купують або використовують ці системи».

Чи справді для кіберзлочинців створили унікальний «чудодійний» інструмент?

Попри широку рекламну кампанію в Даркнеті достовірної інформації про реальність WormGPT та FraudGPT, а також про повноцінність їх функціоналу недостатньо. Досить складно наразі перевірити склад і легітимність цих систем. При цьому, попередні дослідження аналітиків демонструють, що кіберзлочинці нерідко обманюють інших шахраїв.

Сергій Шикевич, керівник групи розвідки загроз у компанії Check Point (потужний IT-бренд з кібербезпеки зі штаб-квартирою в Тель-Авів, Ізраїль) каже, що є певні натяки на те, що люди вже активно використовують WormGPT.

«Схоже, що існує реальний інструмент», — каже Шикевич. За його словами, продавець, який стоїть за інструментом, відносно надійний і має історію на форумах з кіберзлочинності.

Шикевич додає, що на одне його повідомлення про WormGPT надійшло понад 100 відповідей, хоча деякі з них стверджують, що програма не дуже відповідає їх запитам, і вони були не в захваті.

Шикевич менш впевнений в автентичності FraudGPT. При цьому розробник цієї системи стверджує, що у нього також є й інші AI: DarkBard і DarkBert.

Популярне по темі: Зафіксовано новий спалах кібератак: як захиститись

AI

Фото: pixabay.com

Інструменти AI від кіберзлочинців не дотягують до оригіналів? Попередження правоохоронців

Дослідник Check Point каже, що немає жодних ознак того, що будь-яка з систем — більш потужна, ніж ChatGPT, Bard або інші комерційні LLM.

Деніел Келлі вважає, що заяви про шкідливі LLM, створені до цього часу, «дещо перебільшені». Але він додає: «це не обов’язково відрізняється від того, що створюють легальні компанії». На його думку, злочинці обов’язково скористаються бумом штучного інтелекту.

ФБР США попередило, що кіберзлочинці розглядають можливість використання генеративного ШІ у своїй роботі, також європейське правоохоронне агентство Європол виступило з аналогічним попередженням. Правоохоронні органи кажуть, що кіберзлочинці залучають у свої розробки безліч експертів, зокрема і юристів, щоб вийти на новий рівень.

Кіберзлочинці завжди користуються трендами

Щоразу, коли будь-який новий продукт, послуга чи подія привертає увагу громадськості — від фільму про Барбі до пандемії Covid-19 — шахраї поспішають включити його до своєї хакерської артилерії. Досі шахраї обманом змушували людей завантажувати шкідливе ПЗ для крадіжки паролів за допомогою фальшивої реклами ChatGPT, Bard, Midjourney та інших генеративних систем штучного інтелекту на Facebook.

Сьогодні ж використання ШІ шахраями виходить на новий рівень. Зокрема, дослідники з компанії Sophos (експерти в галузі кібербезпеки) помітили цікаві тенденції, коли оператори різних шахрайських компаній помилялись і вставляли в текст переписки згенеровані штучним інтелектом фрази, на кшталт: «Як мовна модель я не маю почуттів і емоцій, як люди».

Також хакери викрадали токени, які надавали їм доступ до API OpenAI та чат-ботів у великих масштабах.

У своєму звіті щодо WormGPT Келлі зазначає, що кіберзлочинці часто діляться джейлбрейкам (механізм злому, наприклад, телефонів), які дозволяють обійти обмеження безпеки, встановлені розробниками популярних LLM. Але навіть необмежені версії цих моделей можуть, на щастя, не бути настільки корисними для кіберзлочинців у їх нинішньому вигляді.

Шикевич, дослідник Check Point, каже, що навіть коли він бачив, як кіберзлочинці намагалися використовувати загальнодоступні моделі, вони не були ефективними.

«Вони можуть створювати штами програм-вимагачів, крадіїв інформації, але не краще, ніж навіть пересічний розробник», — зазначає експерт.

При цьому він попередив, що на форумах з кіберзлочинності активно обговорюють створення власних клонів відомих LLM систем, які, як очікується, будуть тільки розвиватись. Тож як бізнесу, так і фізособам варто підготуватись до можливої нової хвилі кібератак.

Ознайомтеся з іншими популярними матеріалами:

Розпочалося розслідування щодо OpenAI: у чому звинувачують

Чим займатиметься xAI ─ нова компанія Ілона Маска

Moody’s разом із Microsoft та OpenAI готують революційну технологію для фінтеху

google news