Голосовые помощники Alexa, Google и Siri могут обманывать своих владельцев

Развитие событий: Microsoft и Amazon будут вместе работать над голосовыми помощниками Cortana и Alexa (30 августа 2017)

Американские журналисты изучили работу голосовых помощников Alexa, Google и Siri и выяснили, что они в значительном числе случаев эти устройств дают неполные, или вообще неверные ответы на заданные им вопросы. Проблема в том, что голосовой помощник в ответ на вопрос дает один вариант ответа, и этот вариант может оказаться либо взятым из какого-то шуточного текста, либо не полностью отражать состояние дел. К примеру, устройство Google Home утверждает, что "дельфины произошли от пришельцев", "Дональд Трамп всегда прав", а "в каждой женщине есть что-то от проститутки". Ранее Google уже пришлось изменить одну из автоподсказок в поиске после того, как газета The Guardian выпустила редакционную колонку, в которой обвинила компанию в неполиткорректности.

Systems Smart Enough To Know When They're Not Smart Enough | Big Medium

Добавить 3 комментария

  • Ответить

    А почему машина должна всегда отвечать правильно? Большинство человеков либо врут, подгоняя ответ под ожидание собеседника, либо заблуждаются. Как машина в этом мире лжи и лицемерия способна всегда давать правильный ответ? Спасёт только партийная цензура, профком и нофелет.

  • Ответить

    «в каждой женщине есть что-то от проститутки» — это вообще почему поставили под сомнение? «В каждом есть немного го*на» что-ли более корректное утверждение? Мерзко, противно на душе.