Разработчики Microsoft сообщили об ошибке в Microsoft 365 Copilot: с конца января ИИ-ассистент мог читать и суммировать конфиденциальные письма, игнорируя политики защиты от утечек данных, которые должны ограничивать доступ автоматизированных инструментов к таким сообщениям.

Copilot Chat — это чат-бот с доступом к рабочему контексту, интегрированный в Word, Excel, PowerPoint, Outlook и OneNote, который позволяет пользователям взаимодействовать с ИИ-агентами. Инструмент стал доступен корпоративным подписчикам Microsoft 365 с сентября 2025 года.

Как пишет издание Bleeping Computer, баг получил идентификатор CW1226324, и впервые его зафиксировали 21 января. Проблема затрагивает функцию чата на вкладке Work в Copilot Chat. Именно там помощник некорректно обрабатывал письма из папок «Отправленные» и «Черновики», включая содержащие отметки о конфиденциальности. Такие метки должны запрещать автоматическим системам (включая Copilot) анализировать содержимое писем.

В Microsoft сообщили, что причиной для возникновения бага послужила некая ошибка в коде, однако никаких деталей в компании не раскрыли.

Исправление для этой проблемы начали разворачивать в начале февраля, но точные сроки окончательного устранения ошибки не раскрываются, равно как и число пострадавших пользователей и организаций. В компании заявили, что масштаб проблемы может измениться по мере продолжения расследования.

  • Подпишись на наc в Telegram!

    Только важные новости и лучшие статьи

    Подписаться

  • Подписаться
    Уведомить о
    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии