Компания OpenAI выпустила инструмент, который должен определять, был ли текст сгенерирован с помощью искусственного интеллекта (например, ChatGPT) или же написан человеком. Однако, по словам самих разработчиков, этот инструмент «не совсем надежен» и правильно идентифицирует написанный ИИ текст только в 26% случаев.
Проблема использования ИИ в целом и ChatGPT в частности в настоящее время серьезно тревожит преподавателей во многих образовательных учреждениях. Например, по информации издания BusinessInsider, ChatGPT уже запрещен в школьных округах Нью-Йорка, Сиэтла, Лос-Анджелеса и Балтимора, а недавно профессора из Нью-Йоркского университета в первый день занятий сообщили студентам, что использование ChatGPT без явного на то разрешения будет приравниваться к плагиату со всеми вытекающими последствиями.
The New York Times и вовсе пишет, что одни преподаватели теперь требуют от учащихся сдавать работы, написанные от руки, а другие наоборот пытаются включить ChatGPT в занятия, например, разбирая с учениками ответы ИИ.
Хотя недавно глава компании OpenAI, создавшей языковую модель ChatGPT, заявил в интервью, что «генеративный текст — это то, к чему нам всем нужно адаптироваться», как раньше произошло с калькуляторами, уже стало очевидно, что во многих сферах очень нужны инструменты для обнаружения созданного ИИ контента.
На прошлой неделе 22-летний студент Эдвард Тиан (Edward Tian) уже представил такой детектор контента, сгенерированного ChatGPT, получивший название GPTZeroX. В это приложение можно вставить отрывок текста или загрузить документ, и оно предоставит оценку того, какая часть этого текста была написана ИИ, выделив соответствующие предложения.
По словам Тиана, приложение ошибалось менее чем в 2% случаев при тестировании на наборе данных, состоявшем из новостных статей BBC и созданных ИИ статей с тем же запросам. И, похоже, что такой подход позволил студенту создать более надежный инструмент, чем решение, которое теперь представили сами разработчики OpenAI.
В блоге команда OpenAI сразу предупреждает, что их «классификатор не совсем надежен». Разработчики говорят, что инструмент правильно идентифицирует лишь 26% написанного ИИ текста, тогда как тексты, написанные человеком, ошибочно получают «клеймо» созданных при помощи ИИ в 9% случаев (то есть речь идет о ложных срабатываниях). К тому же, пока инструмент плохо работает на любых языках, отличных от английского и коротких текстах. Правда, надежность работы классификатора должна увеличиваться по мере увеличения длины входного текста.
В OpenAI обещают, что со временем инструмент обязательно станет лучше, а пока разработчики ждут любую обратную связь от учителей, родителей, учащихся, поставщиков образовательных услуг, журналистов и других людей, на работу которых ChatGPT может влиять в значительной мере.