
Исследователи Google Threat Intelligence Group (GTIG) выявили как минимум пять семейств вредоносного программного обеспечения, которые применяют большие языковые модели (LLM) для организации хакерских атак. Частично такие штаммы уже используются в реальных инцидентах, говорится в отчёте компании.
В отличие от традиционных образцов, где вредоносная логика жёстко зашита в бинарный код, новые программы динамически генерируют скрипты, запутывают код для обхода систем обнаружения и делегируют части функциональности ИИ — модель может в реальном времени создавать полезные злоумышленнику функции под конкретную ситуацию.
По словам экспертов Google, передача некоторой логики на ИИ позволяет злоумышленникам постоянно адаптироваться и усложнять работу средств защиты, что создаёт новые вызовы для кибербезопасности и требует обновления методов детекции и реагирования.