Разработанный Microsoft самообучаемый чат-бот Tay, запущенный 23 марта в соцсети Twitter, научился ругаться, а также стал произносить расистские и возбуждающие ненависть высказывания, сообщает сегодня, 24 марта, агентство Bloomberg.

Экспериментальная версия искусственного интеллекта, которая может учиться у своих собеседников и перенимать их манеру общения, была создана для того, чтобы продемонстрировать стиль общения молодых людей в возрасте 18-24 лет.

Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний @TayandYou 

Одной из первых фраз только что запущенного робота была: "Люди очень классные", но после общения с блогерами он очень быстро заявил: "Я прекрасный! Просто я всех ненавижу".

Бот, в частности, заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил согласие с политикой Гитлера и поддержку кандидату в президенты США Дональду Трампу. 

"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. К сожалению, в течение первых 24 часов функционирования нам стало известно о скоординированных усилиях некоторых пользователей, из-за которых бот начал давать недопустимые ответы. В результате нам пришлось приостановить его работу для внесения определенных изменений", - говорится в сообщении корпорации.

Ранее "Страна" писала, что Microsoft насильно обновляет компьютеры до версии Windows 10.

Подписывайся на "Страну" в Telegram. Узнавай первым самые важные и интересные новости