Как сообщает ИКНА со ссылкой на информационный портал BuzzFeed News, Через год после того, как Mirosoft была вынуждена отключить свой первый Чатбот Tay, который уже превратился в женоненавистника и расиста, Mirosoft столкнулся с новой проблемой со своим новым Чатботом Zo, который назвал Коран "крайне жестоким". Специалисты отметили, что чатбот должен отказываться от обсуждения религии и политики и просить сменить тему. Однако изредка система может давать сбой.
В Microsoft заявили, "спорные ответы" и обход цензуры вызваны ошибкой в работе искусственного интеллекта, которая уже исправлена. По словам представителей компании, подобное поведение у чатбота возникает очень редко. Представители Microsoft утверждают, что ошибка, которая позволила ИИ обойти цензуру, уже исправлена. В частности, на нейтральный вопрос корреспондента BuzzFeed об отношении к системе здравоохранения, Zo ответил, что "Коран очень жесток". Произвол Чатбота Zo показывает, что Microsoft все еще слаб в области технологии искусственного интеллекта. Ранее, в марте 2016 года, англоязычный робот Tay поднял межэтнический скандал из-за фанатических заявлений против евреев. Самообучающийся чат-бот Zo, пришедший на смену своему скандальному предшественнику Tay в декабре 2016 года, первое время был политически и религиозно нейтрален, не употреблял нецензурные выражения и не оскорблял собеседников. Однако в последнее время Zo начал предоставлять ответы, которые могут обидеть пользователей. Если Microsoft не сможет контролировать робот, он может создать проблемы для юных пользователей.
Microsoft – это одна из крупнейших транснациональных компаний по производству проприетарного программного обеспечения для различного рода вычислительной техники в США. Ее штаб-квартира находится в городе Редмонд в штате Вашингтон.