По информации СМИ, компании Samsung позволила своим инженерам использовать в работе ChatGPT. Однако те стали применять ИИ для быстрого исправления ошибок в исходном коде, и «слили» чат-боту закрытые данные, включая заметки с внутренних совещаний и данные, связанные с производством и доходностью компании. В итоге доступ к ChatGPT может быть заблокирован для сотрудников Samsung.
Economist сообщает, что за 20 дней в компании было зафиксировано сразу три случая утечек данных через ChatGPT. В одном случае разработчик Samsung передал чат-боту исходный код проприетарной программы для исправления ошибок, то есть, по сути, раскрыл код секретного приложения ИИ, управляемому сторонней компанией.
Во втором случае сотрудник раскрыл ChatGPT тестовые шаблоны, предназначенные для выявления дефектных чипов, и запросил их оптимизацию. Такие шаблоны тоже относятся к строго конфиденциальным данным, а их оптимизация может ускорить процедуры тестирования и проверки чипов, значительно сократив затраты для компании.
В третьем случае работник Samsung использовал приложение Naver Clova для преобразования записи закрытого совещания в текст, а затем отправил его ChatGPT для подготовки презентации.
Все это вынудило руководство Samsung предупредить сотрудников об опасности использования ChatGPT. Компания проинформировала руководителей и работников о том, что данные, которые получает ChatGPT, передаются и хранятся на внешних серверах, их невозможно «отозвать», и все это увеличивает риск утечки конфиденциальной информации. К тому же ChatGPT обучается на полученных данных, а значит, может раскрыть конфиденциальную информацию третьим лицам.
В настоящее время компания работает над защитными мерами для предотвращения подобных инцидентов в будущем. Если же такие ситуации будут возникать даже после принятия мер, доступ к ChatGPT для сотрудников Samsung может быть заблокирован вовсе. Также, по данным журналистов, компания планирует разработать собственный ИИ-сервис, похожий на ChatGPT, но предназначенный для внутреннего использования.