Компания Microsoft создала бота для социальной сети Twitter. Он мог вести дискуссии с настоящими пользователями и учиться, копируя их поведение.

Менее чем через 24 часа, Microsoft заблокировала публикации от своего бота и удалила некоторые из них, потому что он стал… расистом.

Бот по имени Тай, был разработан командой по технологиям и исследованиям в сотрудничестве с поисковым движком Bing. Большую часть времени бот провёл отбиваясь от агрессивных выпадов пользователей. В итоге, он начал отрицать Холокост, грубо высказываться по отношению к женщинам и меньшинствам, а также оправдывать геноцид.

В самой Microsoft считают этот проект важным культурным и образовательным экспериментом. Изначально искусственный пользователь должен был вовлекать и развлекать людей при помощи игривых и казуальных разговоров.

Такие дела.

 

Как социальные сети влияют на искусственный интеллект?Компания Microsoft создала бота для социальной сети Twitter. Он ...

Опубликовано Энрике Менендесом 25 марта 2016 г.
Подписывайся на рассылку новостей Страны в Facebook. Узнавай первым самые важные и интересные новости!