Чатбот, разработанный Microsoft, оказался расистом и антисемитом: его твиты удалены
Компания Microsoft остановила деятельность придуманного ее сотрудниками чатбота TayTweets, после того, как тот опубликовал в социальных сетях ряд оскорбительных комментариев и, в том числе, такой: "Гитлер был прав – я ненавижу евреев".
Об этом пишет в четверг, 24 марта, издание Тhe International Business Times.
Проект TayTweets был запущен сотрудниками филиала компании в Сиэтле в минувшую среду – в рамках эксперимента по внедрению в сеть искусственного разума, способного поддерживать беседу.
Однако тот не оправдал надежд разработчиков, выдав в публичное пространство утверждения типа "теракты 9/11 провел Буш", "Гитлер лучше, чем те обезьяны, которых мы имеем сегодня" и "Дональд Трамп – наша единственная надежда". Робот также утверждал, что Холокост был выдуман, поддержал идею геноцида мексиканцев и заявил, что ненавидит негров".
В заявлении, опубликованном упомянутым выше изданием, компания Microsoft заявляет, что усовершенствовала TayTweets и внесла коррективы. Однако к четвергу все три "твита" робота были удалены, и новых пока не обнаружено.