Эксперты сомневаются, что Claude Code мог использоваться для автоматизированных атак
На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масшта…
На прошлой неделе компания Anthropic опубликовала отчет, в котором заявила, что китайская хак-группа GTG-1002 провела масшта…
Китайские хакеры применяли ИИ-инструмент Claude Code для атак на 30 крупных компаний и правительственных организаций. По дан…
Специалисты компании Anthropic, совместно с Институтом безопасности ИИ при правительстве Великобритании, Институтом Алана Ть…
Специалисты компании Adversa опубликовали анализ топ-25 уязвимостей Model Context Protocol (MCP). Этот список исследователи …
Компания Anthropic сообщает, что пресекла масштабную вредоносную операцию, в рамках которой, в июле 2025 года, злоумышленник…
Компания Anthropic объявила о новых возможностях, которые позволят некоторым из ее новейших моделей завершать разговоры в «р…
В погоне за скоростью и удобством разработчики ИИ‑приложений часто забывают о безопасности. Именно это привело к критической уязвимости в MCP Inspector от Anthropic. Инструмент для отладки MCP-серверов стал точкой входа для злоумышленников.
Представители компании Anthropic заявили, что отозвали у компании OpenAI доступ к API Claude, так как разработчиков ChatGPT …
В Anthropic рассказали, что новая модель Claude Opus 4 может шантажировать разработчиков, если ее угрожают заменить новой ИИ…