Компания Microsoft создала бота для социальной сети Twitter. Он мог вести дискуссии с настоящими пользователями и учиться, копируя их поведение.

Менее чем через 24 часа, Microsoft заблокировала публикации от своего бота и удалила некоторые из них, потому что он стал… расистом.

Бот по имени Тай, был разработан командой по технологиям и исследованиям в сотрудничестве с поисковым движком Bing. Большую часть времени бот провёл отбиваясь от агрессивных выпадов пользователей. В итоге, он начал отрицать Холокост, грубо высказываться по отношению к женщинам и меньшинствам, а также оправдывать геноцид.

В самой Microsoft считают этот проект важным культурным и образовательным экспериментом. Изначально искусственный пользователь должен был вовлекать и развлекать людей при помощи игривых и казуальных разговоров.

Такие дела.

 

Как социальные сети влияют на искусственный интеллект?Компания Microsoft создала бота для социальной сети Twitter. Он ...

Опубликовано Энрике Менендесом 25 марта 2016 г.