
Исследователи Google Threat Intelligence Group (GTIG) выявили как минимум пять семейств вредоносного программного обеспечения, которые применяют большие языковые модели (LLM) для организации хакерских атак. Частично такие штаммы уже используются в реальных инцидентах, говорится в отчёте компании.
В отличие от традиционных образцов, где вредоносная логика жёстко зашита в бинарный код, новые программы динамически генерируют скрипты, запутывают код для обхода систем обнаружения и делегируют части функциональности ИИ — модель может в реальном времени создавать полезные злоумышленнику функции под конкретную ситуацию.
По словам экспертов Google, передача некоторой логики на ИИ позволяет злоумышленникам постоянно адаптироваться и усложнять работу средств защиты, что создаёт новые вызовы для кибербезопасности и требует обновления методов детекции и реагирования.
Похожие публикации:
- Хакеры распространяют вирусы под видом ИИ для «раздевания» девушек
- Интерпол и Kaspersky объединились для борьбы с хакерами-вымогателями
- Хакеры атакуют суперкомпьютеры для майнинга
- Хакеры в прошлом году похитили $3,8 млрд. в криптовалюте
- Хакеры взломали кошельки биржи Bilaxy
- Платформа Audius потеряла около $6 млн.
- Хакер выпустил 1 млрд. токенов CGT
- Биржа OKX приостановила работу агрегатора DEX