Новости по-русски

Чат-бот Microsoft через сутки работы начал ругаться и стал нацистом

Экспериментальная версия искусственного интеллекта, разработанная корпорацией Microsoft специально для общения в Twitter, за сутки своей активности в чате освоил брань, а также начал позволять себе расистские заявления.

Как сообщает BBC, чат-бот Tay, в частности, заявил, что является сторонником геноцида и ненавидит феминисток. Кроме того, он выразил поддержку лидеру нацистской Германии Адольфу Гитлеру. При этом более приятные темы – такие, как кино, сериалы или музыка – чат-бота не заинтересовали.

Примечательно, что «лицом» бота для аккаунта в Twitter его создатели выбрали лицо девушки.

Некоторые посты бота оказались настолько резкими, что другие пользователи начали требовать отредактировать или удалить их. В итоге компания Microsoft оказалась вынуждена удалить некоторые из наиболее провокационных высказываний Tay, признав их «неуместными». Разработчики заверили, что внесут в программу корректировки.

Чат-бот был разработан для общения с молодыми людьми в возрасте от 18 до 24 лет. В заявлении Microsoft говорилось, что он это – «проект обучения искусственного интеллекта, предназначенный для человеческого взаимодействия».

«Tay предназначен для того, чтобы заинтересовать и развлекать людей, дабы они смогли найти общий язык в Интернете посредством легкой беседы», - говорилось в обращении корпорации.

Tay «учился» общению на основе анализа большого массива обезличенных общедоступных данных. На этапе «обкатки» программы он также «работал» с группой людей, в том числе с профессиональными комиками.

 

Читайте на 123ru.net