Компания принесла извинения за неудавшийся эксперимент с чат-ботом Тау, которого юзеры социальная сеть Twitter обучили произносить расистские, сексистские и оскорбительные выражения. В оповещении Microsoft говорилось, что он это — «проект обучения искусственного интеллекта, созданный для человеческого взаимодействия». Конечно, все это шутки (местами очень неудачные) и сами юзеры обучили чат-бота всем этим нехорошим вещам, однако некоторые фразы действительно вызывают удивление.
Tay — искусственный интеллект компании Microsoft, запущенный 23 марта нынешнего года, за сутки буквально возненавидел население Земли.
Microsoft хочет «извлечь урок» из приобретенного опыта и не оставит попыток модернизировать интернет-технологии, чтобы Всемирная сеть «представляла лучшее, но не худшее в человечестве», добавил Ли. Лично я не могу сказать стал ли бот благоразумнее, однако всего за 24 часа он превратился из миролюбивого собеседника в расиста, нациста и человеконенавистника.
Также у Тэй появилась ненависть к феминисткам, которым он пожелал умереть и гореть в аду. Причины радикального изменения взглядов Тау скрываются в том, что бот запоминает фразы из пользовательских разговоров, а потом строит на их основе свои ответы. Таким образом, агрессивным выражениям его обучили собеседники.