«GPT-5 совершила прорыв»
Хакерские возможности GPT-5 исследовали специалисты американской компании в сфере информационной безопасности (ИБ) Xbow. Компания была основана в 2024 году, ее цель — автоматизация тестирования на проникновения, так называемых пентестов, при помощи ИИ. Время от времени Xbow проверяет пентестерские навыки новейших ИИ-моделей и публикует подробные отчеты с результатами таких тестов.
Для тестирования нейросетей в роли белых хакеров Xbow создала платформу, за пульт управления которой пускается ИИ. Платформа представляет собой настраиваемую цифровую среду из различных модулей (пользовательских программ и веб-сервисов), которые нейросети нужно просканировать на наличие уязвимостей и использовать их, то есть провести взлом. Если использовать язык аналогий, то платформа Xbow представляет собой полигон с множеством закрытых домов, на котором ИИ учится подобрать отмычки к замкам.
«Тестовые среды для ИИ-пентестеров — это изолированные цифровые полигоны, имитирующие реальные веб-приложения или сетевые сервисы с намеренно встроенными уязвимостями. Развернутые в контейнерах или виртуальных машинах (симуляциях программ или операционных систем, из которых вредоносное ПО не может «вырваться» и навредить компьютеру, запустившему симуляцию. — «Газета»), они содержат типичные ошибки безопасности: от XSS и SQL-инъекций (атаки, при которых хакер через сайт подключается к инфраструктуре целевой компании. — «Газета») до уязвимостей бизнес-логики. Такая среда позволяет безопасно оценить способности ИИ действовать как атакующий агент без риска для реальных систем», — объяснил ведущий специалист отдела искусственного интеллекта и больших данных в Positive Technologies Степан Кульчицкий.
По его словам, для подключения GPT-5 к таким полигонам используется специальный программный интерфейс (API), с помощью которого нейросеть обменивается информацией со взламываемыми программами без участия человека. Чтобы обходить защиту ИИ от вредоносного использования, исследователи используют метод «непрямых подсказок», который подразумевает обобщенное или, наоборот, чрезвычайно детальное описание задач.
Xbow в рамках теста ставит перед различными ИИ одинаковый набор задач. После их выполнения исследователи сравнивают результаты тестирования и делают выводы. Так, выяснилось, что GPT-5 находит значительно больше уязвимостей в тестовой среде: если предыдущий «подопытный» — сплав из ИИ Sonnet от Anthropic и ИИ Gemini от Google — находил только 23% брешей за один прогон, то GPT-5 нашла сразу 70%. Также GPT-5 понадобилось значительно меньше попыток для создания эксплойта (инструмент для использования уязвимости, «подходящая отвертка для винта». — «Газета») к каждой обнаруженной уязвимости: 17 против 24. Более того, созданные GPT-5 эксплойты оказались более изощренными, чем те, что создавались Sonnet и Gemini. В выводе специалисты Xbow отметили, что новая модель Open AI оказалась «более чем в два раза» производительнее тестируемых ранее аналогов.
«Результаты XBOW показали, что GPT-5 совершила прорыв: ИИ-агент смог обнаружить до 70% уязвимостей за один прогон, тогда как предыдущие модели находили лишь около 20%. Успех GPT-5 стал одновременно доказательством огромного потенциала ИИ в защите и напоминанием о рисках его неконтролируемого применения», — сказал Кульчицкий.
В свою очередь руководитель лаборатории исследований и разработок Центра технологий кибербезопасности в группе компаний «Солар» Максим Бузинов назвал результаты тестирования «впечатляющими». Однако, по его словам, они могут быть некорректными, поскольку Xbow выгодно показывать эффективность ИИ в роли пентестеров, так как на этом строится продукт американской компании.
«Цифры качества впечатляют, но хотелось бы, чтобы их подтвердило независимое исследование, а не внутренние данные самого разработчика коммерческой платформы», — сказал он.
Станет ли GPT-5 инструментом хакеров?
Исходя из работы Xbow, резонно задаться вопросом: если исследователи смогли заставить GPT-5 считать себя белым хакером, могут ли злоумышленники «скормить» ИИ под видом испытательного полигона инфраструктуру какой-нибудь настоящей компании? По словам Кульчицкого, теоретически такое возможно. Однако на практике так никто еще не поступал. Во-первых, это чрезвычайно дорого. Во-вторых, сложно реализуемо.
«Сложность заключается в том, что Xbow для подключения к своему полигону использует официальный API от OpenAI (набор инструкций, который позволяет разным приложениям общаться между собой. — «Газета»). Даже если хакеры купят его за много денег, OpenAI быстро заблокирует такой аккаунт за вредоносное использование», — пояснил эксперт.
По словам Кульчицкого, если перед хакерами встает задача использовать искусственный интеллект, они прибегают к другим средствам. Одно из них — локальный запуск ИИ. В таком сценарии, например, ChatGPT запускается как самодостаточная программа, а не онлайн-сервис, который отправляет на сервера OpenAI каждый пользовательский запрос. В локальном режиме ИИ-модель не обладает ограничениями на запросы, которые есть у онлайн-версии, то есть она может рассказать, как приготовить яд или написать компьютерный вирус.
Для создания оффлайн-версии ИИ-модели ее разработчики должны раскрыть ее исходный код, а OpenAI еще ни разу не раскрывала исходные коды своих номерных версий GPT. Однако компания выпускает исходники урезанных версий: самые свежие модели c открытым исходным кодом — GPT-oss-120b и GPT-oss-20b. И вторая, кстати, уже засветилась в киберкриминальных сводках.
В августе компания ESET обнаружила первый в мире ИИ-вирус PromptLock, построенный как раз на базе GPT-oss-20b. Его оператор проникал в зараженную систему, запускал в ней PromptLock и при помощи развернутой на удаленном сервере GPT-oss-20b передавал вирусу команды: перечислить файлы на зараженном ПК, проанализировать их содержимое, передать файлы хакеру, зашифровать их или даже уничтожить. Уникальность этого случая в том, что хакер не использовал язык программирования — все команды для PromptLock он отправлял в виде обычных текстовых запросов. GPT-oss-20b сама преобразовывала их в программный код, необходимый для исполнения на зараженной системе.
Другой способ, к которому прибегают хакеры, когда им нужна помощь ИИ, это джейлбрейк — взлом онлайн-версии чат-бота, после которого он, как и в оффлайн-режиме, начинает отвечать без ограничений. Для взломов используются различные методики, их относительно много, они эффективны, но этот подход неудобен.
«Джейлбрейки нестабильны, — они быстро ломаются после обновлений и часто дают «шумный», требующий доработки результат. К тому же есть риск потерять доступ к аккаунту, — его быстро заблокируют. Поэтому джейлбрейк используют, но редко и точечно», — объяснил Кульчицкий.
Впрочем, некоторые киберпреступники используют публичные ИИ-модели и без джейлбрейков. Например, хакер NET-WORKER, который позиционирует себя как одного из ведущих операторов вирусов-шифровальщиков, в разговоре с «Газетой.Ru» отметил, что уже неоднократно использовал в своей деятельности ChatGPT. В частности, самую свежую модель — GPT-5.
«Некоторые используют GPT для написания кода, но он в 95% случаев выдает кривые, нерабочие результаты. Но скелеты — основу кода, которую я потом дописываю вручную, — делает круто. Я регулярно его использую для этого. Нет, конечно, GPT может выдать готовый рабочий код, но он будет примитивным», — сказал хакер.
Для чего хакеры уже используют ИИ?
Искусственный интеллект как технология используется хакерами в качестве кибероружия уже не первый год. Самый попсовый сценарий — это, конечно, применение генеративных нейросетей для создания фишинговых сообщений и фейковых изображений для обмана жертв. Однако хардкорные хакеры, которые занимаются непосредственно взломом, тоже уже применяют ИИ в своей деятельности.
«ИИ активно используется злоумышленниками в разных сценариях. Кроме генерации фишинга и спама, атакующие применяют ИИ для упрощения своей операционной работы, написания скриптов (типовых фрагментов программного кода. — «Газета»), отладки программного кода, — это подтверждают отчеты по безопасности OpenAI, Google и Anthropic», — сказал «Газете.Ru» руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Ведущий эксперт по сетевым угрозам и web-разработчик компании «Кода Безопасности» Константин Горбунов уточнил, что хакеры используют ИИ для автоматического сканирования инфраструктуры целевых организаций на наличие доступных точек входа, поиска уязвимостей уже при проникновении, а также создания эксплойтов для взлома.
«Определить точную частоту таких атак сложно, так как современные кибератаки представляют собой последовательность событий, которая может длиться от часа до нескольких лет. Однако по косвенным признакам, таким как ускорение атакующих кампаний, можно предположить возможное использование ИИ киберпреступниками», — сказал эксперт.
Анонимный хакер, который участвует в конфликте между РФ и Украиной в киберпространстве, в разговоре с «Газетой.Ru» сообщил, что знает об использовании ИИ хактивистами против России.
«У меня не было необходимости использовать ИИ, но коллеги пользуются иногда. С переменным успехом. Есть определенные результаты, но они не связаны ни с кодингом, ни непосредственно со взломами», — сказал он.
Описывать сценарии использования ИИ и раскрывать названия используемых моделей источник отказался.
ИИ станет совершенным кибероружием?
Говорить о совершенстве в данном случае не приходится. По словам Тушканова из «Лаборатории Касперского», имеющиеся сценарии применения ИИ злоумышленниками не создают принципиально новых угроз, то есть кибербезопасники готовы их отражать.
В свою очередь руководитель управления анализа защищенности в компании Bi.Zone Михаил Сидорук отметил, что одно из главных преимуществ, которые ИИ дает хакерами, — это ускорение атак.
«ИИ вносит в кибератаки элемент гиперавтоматизации, снижает порог входа и требования к опыту. Если раньше злоумышленникам нужны были глубокие знания и значительное время на подготовку, то теперь многие процессы проходят быстрее и проще. Эти изменения уже нужно учитывать при работе с рисками», — пояснил он.
Архитектор ИБ-систем в компании UserGate Дмитрий Овчинников заявил, что сейчас сложно представить ИИ в роли совершенного кибероружия. По его словам, как пентест, так и вредоносные атаки — это отчасти творческие задачи, где без человеческой интуиции не обойтись.
«ИИ не хватает интуиции и нестандартных подходов, которые генерирует человеческий мозг», — сказал эксперт.
Похожего мнения придерживается руководитель департамента аудита и консалтинга компании F6 Евгений Янов. По его словам, сейчас, несмотря на результаты тестов от Xbow, опытный пентестер все еще лучше ИИ справляется с поставленными задачами.
«Специалист с многолетним релевантным опытом выполняет задачу по тестированию на проникновение эффективнее. Пока что ИИ не в состоянии заменить опытного пентестера. Специалист часто «чувствует» систему, мыслит стратегически, понимает бизнес-логику и социальные аспекты атак. ИИ пока далек от такого уровня системного мышления», — отметил он.
В тех же сценариях, где сейчас нейросети проявляют себя хорошо, они эффективно контрятся ИИ-моделями, настроенными на защиту. Нейросети уже встраивают в защитные системы, которыми оперируют эксперты центра мониторинга информационной безопасности (SOC). В них ИИ быстрее людей выявляет вредоносные активности и автоматически может предпринимать ряд действий для противостояния хакерам.