Новости по-русски

Пользователи за сутки научили ругаться «молодежный» чат-бот Microsoft

Чат-бот Tay, разработанный компанией Microsoft, спустя сутки после запуска в Twitter стал делать расистские высказывания и ругаться, рассказывает BBC.

Tay представляет собой экспериментальную версию искусственного интеллекта, созданную для общения с пользователями 18-24 лет.

Спустя сутки после запуска чат-бот уличили в ругани и возбуждающих рознь высказываниях. Например, Tay заявлял, что ненавидит феминисток, зато поддерживает геноцид и политику Гитлера.

В Microsoft объяснили, что Tay учится в процессе общения с пользователями. Его высказывания являются результатом такого взаимодействия. Корпорация заявила, что внесет «некоторые правки» в его работу.

"Tay" went from "humans are super cool" to full nazi in

 

Читайте на 123ru.net