Популярные модели искусственного интеллекта (ИИ) вроде ChatGPT, Gemini и Sonnet активно используются хакерами. Чат-боты помогают киберпреступникам в трех группах задач: мошеннические кампании, операционная деятельность и улучшение программного кода. Об этом «Газете.Ru» рассказал руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
«ИИ активно используется злоумышленниками в разных сценариях. Кроме генерации фишинга и спама, атакующие применяют ИИ для упрощения своей операционной работы, написания скриптов (типовых фрагментов программного кода, – «Газета»), отладки (проверки на наличие ошибок, – «Газета») программного кода – это подтверждают отчеты по безопасности OpenAI, Google и Anthropic», – сказал Тушканов.
При этом, по словам эксперта, такое применение ИИ злоумышленниками не создает принципиально новых угроз. Однако ИИ в руках злоумышленников потенциально может повышать эффективность кибератак, а также снижать порог входа в киберпреступность за счет снижения требуемых для этого технических компетенций от человека.
«Вместе с тем ИИ активно применяется и в сфере кибербезопасности, и в целом в разработке: в частности, благодаря таким технологиям растет продуктивность и скорость реализации нового функционала. Мы в «Лаборатории Касперского» используем, например, внутренний ИИ-сервис для повышения продуктивности разработчиков и разных сценариев, связанных с кибербезопасностью – от реверс-инжиниринга (анализа кода программных продуктов, – «Газета») до обработки данных о киберугрозах», – добавил эксперт.
Подробнее о том, как хакеры пытаются сделать из ИИ совершенное кибероружие – в эксклюзивном материале «Газеты.Ru».