Издание Bleeping Computer обратило внимание на жуткую историю, которой поделилась в Twitter пользовательница Кристин Ливдал (Kristin Livdahl). Виртуальный ассистент Alexa предложил ее десятилетней дочери опасный для жизни челлендж.

Дело в том, что помощнику можно задать вопрос «Tell me a challenge to do», и в ответ тот обычно предлагает решить какую-то простую задачку или ответить на вопрос викторины. Однако, после того как девочка попросила у Alexa какой-нибудь челлендж, ИИ ответил ей следующее:

«Задача проста. Вставьте зарядное устройство телефона в розетку примерно наполовину, а затем приложите пенни к открытым контактам».

Ливдал рассказывает, что находилась в комнате в тот момент и «буквально закричала: “нет, Alexa, нет!”, как будто это была собака» (в английском языке команда «фу!» звучит как «off!» или «no!»).

Журналисты поясняют, что виртуальные помощники обычно собирают контент для таких челленджей из поисковых систем и сторонних сайтов, и порой сказывает отсутствие курирования этого вопроса. В данном случае совет был взят с сайта ourcommunitynews.com, где обсуждались опасные челленджи в TikTok.

Пользователи Twitter в шутку посоветовали пострадавшей отключить в Amazon Echo настройку «убить моего ребенка». Однако представителям Amazon ситуация смешной не показалась, и они уже сообщили изданию Indy100, что проблема была устранена.

  • Подпишись на наc в Telegram!

    Только важные новости и лучшие статьи

    Подписаться

  • Подписаться
    Уведомить о
    2 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии