Специалисты компании Check Point обнаружили уязвимость в ChatGPT, которая позволяла незаметно похищать данные из переписок пользователей без их ведома и согласия. В OpenAI устранили проблему в конце февраля 2026 года, и свидетельств ее эксплуатации в реальных атаках не обнаружено.

Исследователи рассказывают, что хотя в ChatGPT есть защитные механизмы, которые не позволяют ИИ делиться данными или отправлять исходящие сетевые запросы, уязвимость позволяла обойти эти ограничения.

Проблема крылась в Linux-среде выполнения, которую ИИ-агент использует для анализа данных и выполнения кода. Там был обнаружен скрытый канал связи через DNS: конфиденциальная информация кодировалась прямо в DNS-запросах, обходя защиту. Хуже того, тот же канал теоретически позволял получить удаленный доступ к шеллу в Linux-среде и добиться выполнения произвольных команд.

По словам аналитиков, модель работала, исходя из предположения, что среда исполнения изолирована и не может отправлять данные наружу. Поэтому утечка не распознавалась как передача данных вовне и не вызывала предупреждений, не требуя подтверждений со стороны пользователя.

Сценарий атаки мог выглядеть следующим образом: злоумышленнику было достаточно убедить жертву скопировать в чат вредоносный промпт (например, под видом «разблокировки премиум-функций» или «улучшения производительности ChatGPT»). Еще опаснее ситуация могла сложиться с кастомными GPT (Custom GPT): в них вредоносная логика могла быть заложена заранее, и пользователю даже не пришлось бы ничего копировать.

«Это исследование подтверждает неприятную истину эпохи ИИ: не стоит считать, что ИИ-инструменты безопасны по умолчанию», — подчеркивает Эли Смаджа (Eli Smadja), глава исследовательского подразделения Check Point Research.

Стоит отметить, что параллельно с публикацией отчета Check Point эксперты из BeyondTrust Phantom Labs раскрыли детали критической уязвимости в OpenAI Codex, связанной с инъекцией команд в облачном ИИ-агенте для разработки. Этот баг позволял похитить токены аутентификации GitHub и скомпрометировать всех пользователей, работавших с общим репозиторием.

Проблема возникала из-за недостаточной очистки входных данных. Дело в том, что Codex не проверял должным образом имена веток GitHub при выполнении задач, и атакующий мог внедрить произвольные команды прямо в параметр с именем ветки — через POST-запрос к API. В результате вредоносный пейлоад выполнялся внутри контейнера агента, а злоумышленник получал доступ к токенам аутентификации.

«Это давало возможность бокового перемещения и полного доступа к кодовой базе жертвы — как на чтение, так и на запись», — поясняют в BeyondTrust.

Для повышения скрытности такой атаки исследователи разработали обфусцированные пейлоады с использованием юникод-символов, в результате чего вредоносные команды выполнялись, оставаясь невидимыми через интерфейс.

Сообщается, что уязвимость затрагивала сайт ChatGPT, Codex CLI, Codex SDK и расширение Codex для IDE. В BeyondTrust сообщили о проблеме разработчикам OpenAI еще 16 декабря 2025 года, и компания устранила уязвимость 5 февраля 2026 года.

  • Подпишись на наc в Telegram!

    Только важные новости и лучшие статьи

    Подписаться

  • Подписаться
    Уведомить о
    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии