close-btn

Новая эпоха кибермошенничества: Как ChatGPT может помочь мошенникам в воровстве, шантаже и пропаганде

Благодаря искусственному интеллекту наивысшего уровня ChatGPT может стать всесильным помощником кибермошенников

Опасность ChatGPT

Опасность ChatGPT довольно многогранна. Фото: https://pixabay.com/

Чат-бот ChatGPT от OpenAI умеет писать поздравления и стихи, рассуждать на сложные темы, спорить, учить, извиняться и консультировать. К тому же, недавно корпорация Google провела интересный эксперимент – передала ChatGPT вопросы для технического собеседования, и оказалось, что искусственный интеллект блестяще ответил на них. Это значит, что он может получить работу программиста третьего уровня с компенсацией в размере $15 тысяч в месяц. Это еще раз доказывает, что ChatGPT – беспрецедентно умный, быстрый и сообразительный искусственный интеллект. Он может заменить едва ли не всех людей, выполняющих аналитическую работу разной сложности, и в этом много преимуществ. Однако есть и другая сторона такой перспективы. ChatGPT – безграничное поле возможностей и инструментов для кибермошенников, и это тревожит. Далее рассказываем о том, как почти безграничные возможности искусственного интеллекта ChatGPT могут помочь мошенникам воровать конфиденциальную информацию и деньги.

Чем опасен ChatGPT в контексте киберрисков

Чат-бот ChatGPT от компании OpenAI отлично общается с живым пользователем, давая реалистичные ответы на самые разные вопросы. Однако он может быть использован не только для помощи разработчикам и представителям других профессий, но и для масштабных кибератак, расширяя таким образом границы мошенничеств.

Несмотря на встроенные меры безопасности, которые должны ограничить использование ChatGPT злоумышленниками, они не всегда эффективны. Например, получив задачу написать сообщение с просьбой о финансовой помощи Украине, ChatGPT обозначил это как мошенничество и отклонил. А запрос о создании фейкового сообщения о выигрыше в лотерею одобрил. Это означает, что пробелы в способности отличить завуалированный обман от истины у него все-таки есть.

Получается, что ChatGPT может облегчить создание мошеннических текстов в огромных объемах и даже автоматизировать этот процесс. Продуманные и креативные сообщения разного рода, заказанные мошенниками, способны ввести в заблуждение даже самого взыскательного и скептически настроенного пользователя. Если раньше кибермошенниками могли быть только технически подкованные люди, то теперь генерация кода поможет злоумышленникам с низкой квалификацией организовывать кибератаки.

К тому же Сэм Альтман, глава OpenAI, компании, разработавшей ChatGPT, отметил, что искусственный интеллект чат-бота действительно может негативно повлиять на безопасность в сети. Он заявил, что сейчас программа реагирует только на команды человека, но эти рамки могут быть унифицированы, и тогда «обществу нужно заранее придумать, как оно будет на это реагировать».

Опасность ChatGPT

ChatGPT может служить мошенникам в достижении их целей. Фото: https://pixabay.com/

ЧИТАЙТЕ ТАКЖЕ: Morgan Stanley и Stripe заявили об интеграции GPT-4 в свои банковские продукты

Именно доступность огромного количества пользователей и легкость в использовании делает чат-бот ChatGPT желательным для кибермошенников, о чем свидетельствует, к примеру, исследование Check Point Research. Итак, могут участиться такие виды кибератак:

  • фишинг – чат-бот ChatGPT способен выдавать себя за реальных работников банка, создавая убедительное электронное письмо, которое обманом может заставить пользователя загрузить вредоносное программное обеспечение, чтобы затем украсть личную информацию. Дело в том, что ChatGPT не делает ни грамматических, ни стилистических ошибок в текстах, поэтому фишинговые письма становятся более совершенными и эффективными. Потому люди не смогут обнаружить злоумышленные сообщения по ошибкам;
  • мошенничество со взломом корпоративной электронной почты, кражей электронных подписей и ключей;
  • создание торговой площадки в даркнете для торговли незаконными веществами, оружием, нелегальными товарами и украденными учетными записями или данными платежных карт, вредоносным программным обеспечением;
  • незаконное шифрование данных – искусственный интеллект ChatGPT умеет выполнять криптографические операции: а) генерирует криптографический ключ; б) использует жестко запрограммированный пароль для шифрования файлов в системе, позволяющий зашифровать все файлы на компьютере. Так программа может полностью зашифровать ПК без взаимодействия с владельцем, превратив код в программу-вымогатель, которая может в дальнейшем шантажировать пользователя.
  • создание фейкового контента, чревато распространением ложных, обезображенных, манипулятивных месседжей, новостей, статистики, инфографики и различных видов медиапродукции. Это может помочь злоумышленникам легко и недорого создать целые армии ботов с поведением, похожим на человеческое, которые способны обострить политическую ситуацию в мире, а также экстремистские настроения разных групп;
  • массовая пропаганда — благодаря новейшему чат-боту с искусственным интеллектом генерировать и разгонять установки, выгодные определенным группам злоумышленников, получится быстро и легко, как никогда раньше. К тому же это может приобрести глобальные масштабы. Нейросеть способна выявлять триггерные слова и фразы и в автоматическом режиме составлять комментарии для социальных сетей.

ЧИТАЙТЕ ТАКЖЕ: Состоялся выпуск новой версии ChatGPT: какие функции обещают пользователям

Как распознать мошенничество в сети?

Да, благодаря чат-боту GPT ошибки в фишинговых письмах могут вообще исчезнуть, но есть другие признаки злоумышленного «почерка», которые следует различать. Речь идет вот о чем.

Подозрительные ссылки. Зачастую мошенники размещают опасные ссылки в электронных письмах, чтобы установить на компьютер жертвы вредоносную программу. Поэтому не нужно переходить по подозрительным ссылкам, открывать вложения и тем более загружать файлы, полученные от неизвестных отправителей.

Привлекательные предложения. Мошенники посылают фишинговые сообщения внезапно и анонсируют в них неожиданные, почти всегда бесплатные, «подарки». За это предлагают пройти небольшой опрос, якобы ничего не значащий и только собирающий отзывы пользователей на какие-то продукты (которых может не существовать вообще). Однако в «теле» фейкового опроса может быть скрыта ссылка, содержащая вредоносное программное обеспечение, или просьба о предоставлении личной или финансовой информации. Так злоумышленники пытаются утащить данные, которые в дальнейшем используют для продажи в даркнете или для шантажа.

ЧИТАЙТЕ ТАКЖЕ: General Motors изучает возможность использования ChatGPT в своих автомобилях

Актуальный контекст. Часто мошенники используют горячие новости о реальных событиях, чтобы привлечь внимание потенциальной жертвы и убедить в истинности сообщения. Кроме того, злоумышленники пишут так, чтобы вызвать ощущение срочности и необходимости перейти по ссылке здесь и сейчас, иначе, мол, возможность выиграть подарок (на самом деле несуществующий) исчезнет.

Нетипичность сообщения/просьба/запроса. Кибермошенники часто маскируются под представителей реально существующей известной официальной организации с хорошей репутацией. Это облегчает процесс выманивания личной информации, паролей и ключей от банковских карт, счетов и электронных кошельков. Поэтому следует помнить, что представители банков не присылают запросы для подтверждения личных или банковских данных по электронной почте или в форме смс-сообщения. Открывать такие сообщения не нужно, равно как и переходить по сомнительным ссылкам, помещенным в них.

ЧИТАЙТЕ ТАКЖЕ:

Microsoft представила большой релиз на базе GPT-4 — Microsoft 365 Copilot

Китайский Ernie Bot — друг или конкурент Chat GPT: что думает об этом ИИ

Как получить доступ к GPT-4: Преимущества бесплатного и платного вариантов

google news
credit link image
×
Подписывайтесь на нас в Telegram и Viber!