На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масштабную кибершпионскую операцию, автоматизировав до 90% своих атак с помощью ИИ-модели Claude Code. Эти заявления компании вызвали волну скептицизма со стороны ИБ-экспертов.
Согласно отчету Anthropic, в сентябре 2025 года компания обнаружила и остановила первую в истории масштабную киберкампанию, где ИИ работал практически автономно. Хакеры атаковали 30 организаций (технологические компании, финансовые институты, химические производители и госучреждения), причем некоторые из этих взломов были успешными.
В отчете представители Anthropic подчеркивали беспрецедентный уровень автоматизации атак:
«ИИ автономно обнаруживал уязвимости, эксплуатировал их в реальных операциях и проводил широкий спектр постэксплуатационных действий».
По оценкам компании, люди вмешивались в происходящее только в 10-20% случаев — для принятия критических решений и проверки данных перед их хищением. Так, разработанный атакующими фреймворк якобы использовал Claude для оркестрации многоэтапных атак, которые затем выполнялись силами нескольких субагентов Claude, каждый из которых имел свои задачи: маппинг атаки, сканирование целевой инфраструктуры, поиск уязвимостей и исследование техник эксплуатации.
После того как субагенты разрабатывали цепочки эксплоитов и создавали кастомные пейлоады, человек-оператор тратил от двух до десяти минут на проверку результатов работы ИИ и одобрение последующих действий.
Однако ИБ-сообщество встретило отчет Anthropic с большим скепсисом. Главные претензии экспертов заключались в следующем.
Отсутствие технических подробностей. В отчете Anthropic не предоставила ни единого индикатора компрометации (IOC), технических деталей атак или каких-либо доказательств содеянного GTG-1002.
«Полное отсутствие IOC явно свидетельствует о том, что они не хотят, чтобы их в чем-то уличили», — считает известный ИБ-специалист Кевин Бомонт (Kevin Beaumont).
Двойные стандарты для ИИ. Исследователи задаются вопросом, почему злоумышленники якобы получают от моделей невероятные результаты, тогда как обычные пользователи сталкиваются с ограничениями и «галлюцинациями»?
«Я отказываюсь верить, что атакующие заставляют модели делать то, чего не удается другим, — заявляет Дэн Тентлер (Dan Tentler) из Phobos Group. — Почему модели дают им результат в 90% случаев, а нам приходится иметь дело с заискиванием, саботажем и галлюцинациями?»
Низкая эффективность. Из 30 атакованных организаций успешно скомпрометировать удалось лишь «несколько». Исследователи не видят смысла в столь сложной автоматизации, если процент успешности атак настолько низок.
Ничего нового среди использованных методов. Согласно отчету, хакеры использовали обычные опенсорсные инструменты, которые существуют много лет и легко детектируются. К тому же сама Anthropic признала, что Claude часто «галлюцинировал» — преувеличивал и подделывал результаты во время автономной работы. К примеру, Claude заявлял, что нашел учетные данные (которые не работали), или докладывал об обнаружении критически важных сведений, которые оказывались общедоступной информацией.
Кроме того, многие восприняли отчет компании Anthropic как обычный маркетинговый ход.
«Эта штука от Anthropic — маркетинговая чушь. ИИ — это суперускоритель, но это не Skynet, он не способен думать. На самом деле это даже не искусственный интеллект (это маркетинговый трюк, придуманный людьми)», — пишет исследователь Дэниел Кард (Daniel Card).
В своих комментариях эксперты сравнивают использование ИИ в кибератаках с инструментами вроде Metasploit и SEToolkit, которые существуют десятилетиями. Они бесспорно полезны и удобны, однако их появление не привело к качественному росту возможностей хакеров.
Большинство экспертов сходятся в том, что ИИ действительно помогает ускорить и упростить выполнение некоторых задач (например, сортировку и анализ логов или реверс-инжиниринг). Однако автономное выполнение сложных цепочкек действий с минимальным участием человека остается для ИИ недостижимым.
