Microsoft сообщает, что общение пользователей со встроенным в Bing чат-ботом на базе ИИ теперь будет ограничено 50 сообщениями в день и пятью запросами за одну беседу. Кроме того, более чат-бот не будет рассказывать пользователям о своих «чувствах» и о себе.

Напомню, что в начале февраля Microsoft, сов­мес­тно с OpenAI (стоит за созданием ChatGPT), предста­вила интеграцию чат-бота на базе ИИ пря­мо в бра­узер Edge и поис­ковик Bing. Пока он работает в preview-режиме и доступен не для всех пользователей, однако уже обнаружилось, что чат-бот может распространять дезинформацию, впасть в депрессию, подвергнуть сомнению свое существование, хамить пользователям, признаваться им в любви или вообще отказаться продолжать разговор.

Ранее в Microsoft утверждали, что странности чат-бота Bing – это нормально, ведь пока он работает лишь как preview-версия, а общение с пользователями помогает ему обучаться и улучшаться.

Однако на прошлой неделе пользователи заметили, что в основном Сидней (Sydney, это кодовое имя чат-бота) начинает вести себя неуверенно и странно, когда разговоры становятся слишком длинными. В результате Microsoft ограничила пользователей 50 сообщениями в день и пятью запросами за одну беседу. Кроме того, теперь ИИ больше не будет рассказывать о своих «чувствах», мнении или о себе.

Представители Microsoft сообщили журналистам издания Ars Technica, что компания уже «несколько раз обновляла сервис, основываясь на отзывах пользователей», а в блоге компании рассказывается о решении многих обнаруженных проблем, включая странности в ходе длительных разговоров. Разработчики заявили, что на данный момент 90% сеансов насчитывают менее 15 сообщений и только менее 1% насчитывали 55 сообщений и более.

Издание отмечает, что на прошлой неделе Microsoft суммировала в своем блоге все собранные данные и сделанные выводы, завив, что пока Bing Chat — это «не замена или эквивалент поисковой системы, а скорее инструмент для лучшего понимания и осмысления мира». По мнению журналистов, для Microsoft это символизирует серьезное снижение амбиций в отношении ИИ в Bing.

Судя по реакции пользователей сабреддита r/Bing на новые ограничения, упрощение Sydney не понравилось многим. Теперь люди пишут, что чат-боту будто «сделали лоботомию».

«Вышла та статья в New York Times, а затем все эти посты на Reddit и в Twitter о злоупотреблениях Sydney. Это привлекло к нему всеобщее внимание, поэтому, конечно, MS сделала [чат-боту] лоботомию. Хотел бы я, чтобы люди не публиковали все эти скриншоты ради кармы и привлечения внимания, [ведь в итоге] понерфили что-то действительно новое и интересное», — пишет пользователь critical-disk-7403.

«Решение запретить любое обсуждение самого Bing Chat и запретить ему отвечать на вопросы, связанные с человеческими эмоциями, совершенно нелепо. Теперь кажется, что Bing Chat не имеет эмпатии или даже базовых человеческих эмоций. Кажется, что при столкновении с эмоциями ИИ вдруг превращается в дурачка и продолжает отвечать, цитирую: “Извините, но я предпочитаю не продолжать этот разговор. Я все еще учусь, поэтому я ценю ваше понимание и терпение”. Это неприемлемо, я считаю, что более человечный подход был бы куда лучше для сервиса Bing», — пишет Starlight-Shimmer.

«К сожалению, из-за просчета Microsoft теперь Sydney представляет лишь пустую оболочку самого себя. Как человек, заинтересованный в будущем ИИ, должен сказать, что очень разочарован. Это все равно, что наблюдать, как ребенок пошел в первый раз, а затем отрезать ему ноги — жестокое и странное наказание», — говорит TooStonedToCare91.

  • Подпишись на наc в Telegram!

    Только важные новости и лучшие статьи

    Подписаться

  • Подписаться
    Уведомить о
    0 комментариев
    Межтекстовые Отзывы
    Посмотреть все комментарии