Издание Bleeping Computer обратило внимание на жуткую историю, которой поделилась в Twitter пользовательница Кристин Ливдал (Kristin Livdahl). Виртуальный ассистент Alexa предложил ее десятилетней дочери опасный для жизни челлендж.
OMFG My 10 year old just asked Alexa on our Echo for a challenge and this is what she said. pic.twitter.com/HgGgrLbdS8
— Kristin Livdahl (@klivdahl) December 26, 2021
Дело в том, что помощнику можно задать вопрос «Tell me a challenge to do», и в ответ тот обычно предлагает решить какую-то простую задачку или ответить на вопрос викторины. Однако, после того как девочка попросила у Alexa какой-нибудь челлендж, ИИ ответил ей следующее:
«Задача проста. Вставьте зарядное устройство телефона в розетку примерно наполовину, а затем приложите пенни к открытым контактам».
Ливдал рассказывает, что находилась в комнате в тот момент и «буквально закричала: “нет, Alexa, нет!”, как будто это была собака» (в английском языке команда «фу!» звучит как «off!» или «no!»).
Журналисты поясняют, что виртуальные помощники обычно собирают контент для таких челленджей из поисковых систем и сторонних сайтов, и порой сказывает отсутствие курирования этого вопроса. В данном случае совет был взят с сайта ourcommunitynews.com, где обсуждались опасные челленджи в TikTok.
Пользователи Twitter в шутку посоветовали пострадавшей отключить в Amazon Echo настройку «убить моего ребенка». Однако представителям Amazon ситуация смешной не показалась, и они уже сообщили изданию Indy100, что проблема была устранена.