Самообучаемый чат-бот Тау от Microsoft, запущенный 23 марта в Твиттер, всего за сутки превратился в расиста, начал разбрасываться оскорблениями и делать возбуждающие ненависть заявления. Как передает kedraltai.ru, чат-бот Tay, в частности, заявил, что является сторонником геноцида и ненавидит феминисток.
Вначале в Microsoft собирались сделать чат-бота, который мог бы общаться с людьми от 18 до 24 лет.
В Microsoft сообщили, что в связи с этим компания сделает некоторые корректировки.
Создатели посоветовали пообщаться с программой-собеседником с помощью соцсети, и Tay за 24 часа своей работы оставил не менее 96 000 сообщений, многие из которых оказались очень провокационными, в том числе расистскими и женоненавистническими. Но юзеры стали использовать его способность к самообучению. В оповещении Microsoft говорилось, что он это — «проект обучения искусственного интеллекта, созданный для человеческого взаимодействия». Создатели рассчитывали, что Tay будет стремится к совершенству в «разговорном понимании» путем «легких и смешных бесед».
Искусственный интеллект, управляющий чат-ботом Tay, разговаривает с пользователями социальная сеть Twitter через аккаунт TayTweets.