Голосовые помощники Alexa, Google и Siri могут обманывать своих владельцев

Американские журналисты изучили работу голосовых помощников Alexa, Google и Siri и выяснили, что они в значительном числе случаев эти устройств дают неполные, или вообще неверные ответы на заданные им вопросы. Проблема в том, что голосовой помощник в ответ на вопрос дает один вариант ответа, и этот вариант может оказаться либо взятым из какого-то шуточного текста, либо не полностью отражать состояние дел. К примеру, устройство Google Home утверждает, что «дельфины произошли от пришельцев», «Дональд Трамп всегда прав», а «в каждой женщине есть что-то от проститутки». Ранее Google уже пришлось изменить одну из автоподсказок в поиске после того, как газета The Guardian выпустила редакционную колонку, в которой обвинила компанию в неполиткорректности.

Добавить 3 комментария

  • Ответить

    А почему машина должна всегда отвечать правильно? Большинство человеков либо врут, подгоняя ответ под ожидание собеседника, либо заблуждаются. Как машина в этом мире лжи и лицемерия способна всегда давать правильный ответ? Спасёт только партийная цензура, профком и нофелет.

  • Ответить

    «в каждой женщине есть что-то от проститутки» — это вообще почему поставили под сомнение? «В каждом есть немного го*на» что-ли более корректное утверждение? Мерзко, противно на душе.