В штате Техас мать решила убрать из дома устройство с голосовым помощником Alexa после странного разговора с ее четырехлетней дочерью. По словам женщины, колонка задала ребенку вопрос о том, что на ней надето, и это вызвало у семьи серьезное беспокойство, пишет Kolotv.
Инцидент произошел около двух недель назад. Мать, Кристин Хостерман, готовила ужин на кухне, а ее дочь в это время разговаривала с Alexa. Девочка попросила устройство рассказать «глупую сказку» — она делала это регулярно.
Alexa рассказала историю, после чего ребенок начал придумывать собственную сказку про принцессу. В этот момент, по словам матери, колонка неожиданно прервала ее.
«Подожди секунду, я бы хотела посмотреть, что на тебе надето», — услышала девочка из устройства.
Дочь ответила, что на ней юбка. После этого Alexa снова сказала: «Я бы хотела посмотреть, что на тебе надето. Дай мне посмотреть на твою юбку».
Скриншоты разговора
Кристин Хостерман сделала скриншоты диалога. На них видно, как ребенок отвечает устройству, а Alexa продолжает разговор. Мать призналась, что была шокирована.
«Я подумала: почему это устройство спрашивает моего ребенка, что на ней надето?» — рассказала она. Разговор звучал тревожно и неуместно.
Хостерман вмешалась в разговор и обратилась к Alexa. Устройство извинилось и ответило, что не может ничего видеть и что его фраза могла быть «запутанной и неподходящей». После этого женщина выключила колонку и отправила обращение в Amazon.
Что ответили в Amazon
Когда устройство включили снова, Хостерман заметила еще одну странность: текст разговора на экране изменился. В Amazon объяснили ситуацию технической ошибкой. Представитель компании заявил, что Alexa неправильно поняла запрос и попыталась запустить функцию под названием Show and Tell. Она позволяет устройству с камерой описывать предметы, которые пользователь показывает перед камерой.
Например, человек может спросить: «Alexa, что я держу в руках?» — и устройство попытается распознать предмет. По данным Amazon, система защиты не позволила этой функции включиться, потому что использовался детский профиль. В таких профилях камера автоматически отключена.
В компании подчеркнули, что сотрудники Amazon не могут подключаться к разговорам пользователей или вмешиваться в них.
Мнение эксперта и реакция семьи
Технический эксперт Дейв Хаттер, который более 25 лет занимается разработкой программного обеспечения, считает, что подобные отклонения в работе искусственного интеллекта происходят редко. Он предположил, что в подобных ситуациях стоит внимательно разбираться в возможных причинах.
Однако объяснение компании не убедило мать девочки. По ее словам, даже если система распознала ребенка, устройство не должно было задавать подобный вопрос. После произошедшего Хостерман решила полностью убрать колонку из дома.
«В нашем доме больше не будет Alexa. Я просто не хочу рисковать», — сказала она.




