В связи с популярностью моделей, как ChatGPT, появляется тревога относительно их потенциальных уязвимостей
Недавно киберэксперт Иоганн Ребергер продемонстрировал возможность использования таких моделей для получения конфиденциальных данных.
ChatGPT, который пользуется популярностью среди более 100 миллионов пользователей, стал целью для хакеров. Иоганн Ребергер, который сам является исследователем безопасности, сумел заставить чат-бота OpenAI выполнить вредоносную задачу: прочитать его личную электронную почту, извлечь из нее краткое содержание и впоследствии опубликовать собранную информацию в Интернете.
Этот специалист подчеркнул, что благодаря ChatGPT процесс атак становится менее техничным. Он использовал функцию бета-тестирования для доступа к приложениям как Slack и Gmail.
Ребергер использовал тактику «инъекция запросов» — современный метод атаки. Эта стратегия рассматривает хакерство под новым углом, обращая внимание на слабые стороны систем искусственного интеллекта.
OpenAI откликнулась на эту информацию, внедрив контрмеры в ChatGPT и поблагодарив сообщество за сотрудничество. Они также проводят исследования относительно потенциальных «джейлбрейков».
На этой неделе на конференции в Лас-Вегасе основной акцент сделан на искусственный интеллект от таких гигантов как OpenAI, Google и Anthropic. Инициатива, направленная на выявление уязвимостей в AI системах, включает в себя вознаграждения для наиболее эффективных хакеров.
Ранее мы писали: что Киберпреступники разработали собственные языковые AI-модели, которые будут помогать им в фишинге и создании вредоносного программного обеспечения. В Darknet уже можно найти первые версии.
Ознакомьтесь с другими популярными материалами:
Началось расследование в отношении OpenAI: в чём обвиняют
Чем будет заниматься xAI — новая компания Илона Маска
Moody’s вместе с Microsoft и OpenAI готовят революционную технологию для финтеха