close-btn

Нова епоха кібершахрайства: Як ChatGPT може допомогти шахраям у крадіжках, шантажі та пропаганді

Завдяки штучному інтелекту найвищого рівня ChatGPT може стати всесильним помічником кібершахраїв

Небезпека ChatGPT

Небезпека ChatGPT доволі багатогранна. Фото: https://pixabay.com/

Чат-бот ChatGPT від OpenAI вміє писати привітання і вірші, міркувати на складні теми, сперечатися, навчати, вибачатися і консультувати. До того ж нещодавно корпорація Google провела цікавий експеримент – передала ChatGPT запитання для технічної співбесіди, і виявилося, що штучний інтелект блискуче відповів на них. Це означає, що він здатен отримати роботу програміста третього рівня із компенсацією у розмірі $15 тисяч на місяць. Це вкотре доводить, що ChatGPT – безпрецедентно розумний, швидкий та кмітливий штучний інтелект. Він може замінити чи не всіх людей, котрі виконують аналітичну роботу різної складності, і у цьому багато переваг. Проте є й інша сторона такої перспективи. ChatGPT – безмежне поле можливостей та інструментів для кібершахраїв, і це тривожить. Далі розповідаємо про те, як майже безмежні можливості штучного інтелекту ChatGPT можуть допомогти шахраям красти конфіденційну інформацію та гроші.

Чим небезпечний ChatGPT у контексті кіберризиків

Чат-бот ChatGPT від компанії OpenAI відмінно спілкується з живим користувачем, даючи реалістичні відповіді на найрізноманітніші запитання. Однак він може бути використаний не лише для допомоги розробникам та представникам інших професій, а й для масштабних кібератак, розширяючи таким чином межі шахрайств.

Незважаючи на вбудовані безпекові заходи, котрі мали б обмежити використання ChatGPT зловмисниками, вони не завжди ефективні. Приміром, отримавши завдання написати повідомлення з проханням про фінансову допомогу Україні, ChatGPT позначив це як шахрайство та відхилив. А запит щодо створення фейкового повідомлення про виграш у лотерею схвалив. Це означає, що прогалини у здатності відрізнити завуальований обман від правди у нього все ж таки є.

Виходить, що ChatGPT може полегшити створення шахрайських текстів у величезних обсягах та навіть автоматизувати цей процес. Продумані та креативні повідомленя різного спрямування, замовлені шахраями, здатні ввести в оману навіть найвибагливішого та найскептичнішого користувача. Якщо раніше кібершахраями могли бути лише технічно підковані люди, то тепер генерація коду допоможе зловмисникам з низькою кваліфікацією організовувати кібератаки.

До того ж Сем Альтман, глава OpenAI, компанії, що розробила ChatGPT, зазначив, що штучний інтелект чат-бота дійсно може негативно вплинути на безпеку у мережі. Він заявив, що зараз програма реагує лише на команди людини, але ці рамки можуть бути уніфіковані і тоді «суспільству потрібно заздалегідь придумати, як воно буде на це реагувати».

Небезпека ChatGPT

ChatGPT може служити шахраям у досягненні їхніх цілей. Фото: https://pixabay.com/

ЧИТАЙТЕ ТАКОЖ: Morgan Stanley та Stripe заявили про інтеграцію GPT-4 у свої банківські продукти

Саме доступність величезній кількості користувачів та легкість у користуванні робить чат-бот ChatGPT бажаним для кібершахраїв, про що свідчить, приміром, дослідження Check Point Research. Так, можуть почастішати такі види кібератак:

  • фішинг – чат-бот ChatGPT здатен видавати себе за реальних працівників банку, створюючи переконливий електронний лист, який обманом може змусити користувача завантажити шкідливе програмне забезпечення, щоб потім викрасти особисту інформацію. Справа у тому, що ChatGPT не робить ані граматичних, ані стилістичних помилок у текстах, тому фішингові листи стають досконалішими і більш ефективними. Тому люди не зможуть виявити зловмисницькі повідомлення за помилками;
  • шахрайство зі зламом корпоративної електронної пошти, крадіжкою електронних підписів та ключів;
  • створення торгового майданчику у даркнеті для торгівлі незаконними речовинами, зброєю, нелегальними товарами та вкраденими обліковими записами або даними платіжних карток, шкідливим програмним забезпеченням;
  • незаконне шифрування даних – штучний інтелект ChatGPT вміє виконувати криптографічні операції: а) генерує криптографічний ключ; б) використовує жорстко запрограмований пароль для шифрування файлів у системі, що дозволяє зашифрувати всі файли на комп’ютері. Так програма може повністю зашифрувати ПК без взаємодії з власником, перетворивши код на програму-вимагач, яка може у подальшому шантажувати користувача.
  • створення фейкового контенту, що загрожує поширенням неправдивих, спотворених, маніпулятивних меседжів, новин, статистики, інфографіки та різних видів медіапродукції. Це може допомогти зловмисникам легко і недорого створити цілі армії ботів з поведінкою, схожою на людську, які здатні загострити політичну ситуацію у світі, а також екстремістські настрої різних груп;
  • масова пропаганда. Завдяки новітньому чат-боту зі штучним інтелектом генерувати та розганяти установки, вигідні певним групам зловмисників, стане швидко та легко, як ніколи раніше. До того ж це може набути глобальних масштабів. Нейромережа здатна виявляти тригерні слова та фрази і в автоматичному режимі складати коментарі для соціальних мереж.

ЧИТАЙТЕ ТАКОЖ: Відбувся реліз нової версії ChatGPT: які функції обіцяють користувачам

Як розпізнати шахрайство у мережі?

Так, завдяки чат-боту GPT помилки у фішингових листах можуть взагалі зникнути, але є інші ознаки зловмисницького «почерку», які варто розрізняти. Йдеться ось про що.

Підозрілі посилання. Найчастіше шахраї розміщують небезпечні посилання у електронних листах, щоб встановити на компютер жертви шкідливу програму. Тож не потрібно переходити за підозрілими посиланнями, відкривати вкладення і тим паче завантажувати файли, отримані від невідомих відправників.

Привабливі пропозиції. Шахраї надсилають фішингові повідомлення раптово і анонсують у них неочікувані, майже завжди безкоштовні, «подарунки». Натомість пропонують пройти невелике опитування, яке нібито нічого не означає і лише збирає відгуки користувачів на якісь продукти (яких може не існувати взагалі). Проте у «тілі» фейкового опитування може бути приховане посилання, що містить шкідливе програмне забезпечення, або прохання про надання особистої чи фінансової інформації. Так зловмисники намагаються поцупити дані, які надалі використають для продажу у даркнеті або для шантажу.

ЧИТАЙТЕ ТАКОЖ: General Motors вивчає можливість використання ChatGPT у своїх автомобілях

Актуальний контекст. Часто шахраї використовують гарячі новини про реальні події, щоб привернути увагу потенційної жертви та переконати у правдивості повідомлення. Крім того, зловмисники пишуть так, щоб викликати відчуття терміновості та нагальної необхідності перейти за посиланням тут і зараз, інакше, мовляв, можливість виграти подарунок (насправді неіснуючий) зникне.

Нетиповість повідомлення/прохання/запиту. Кібершахраї часто маскуються під представників реально існуючої відомої офіційної організації з гарною репутацією. Це полегшує процес виманювання особистої інформації, паролів та ключів від банківських карток, рахунків та електронних гаманців. Тому варто пам’ятати, що представники банків не надсилають запити для підтвердження особистих або банківських даних на електронну пошту або у формі смс-повідомлення. Відкривати такі повідомлення не потрібно, так само як і переходити за сумнівними посиланнями, вміщеними у них.

ЧИТАЙТЕ ТАКОЖ:

Microsoft представила великий реліз на базі GPT-4 — Microsoft 365 Copilot

Китайський Ernie Bot — друг чи конкурент Chat GPT: що думає про це ШІ

Як отримати доступ до GPT-4: Переваги безкоштовного і платного варіантів

google news