Наследница бота-расиста от Microsoft научилась оскорблять

19 Июл 2017 | Автор: | Комментариев нет »

Новый «умный» чат-бот от Microsoft под названием Zo освоила противоречивые высказывания несмотря на то, что создатели специально запрограммировали ее уходить от ответа в политических и религиозных темах. Об этом сообщает Engadget.

Когда девушку-бота попросили поделиться точкой зрения по вопросам здравоохранения, она почему-то назвала Коран «жестокой книгой». Кроме того, искусственный интеллект не смог держать при себе мнение о смерти Усамы бен Ладена: по его мнению, «захват» боевика произошел благодаря «годам разведывательных работ».

В Microsoft утверждают, что все ошибки, из-за которых Zo все-таки перешла на обсуждение запретных тем, исправлены.

В марте 2016 года еще одно изобретение корпорации — «умный» чат-бот Tay — произвело впечатление на пользователей сети. Для бота был создан аккаунт в Twitter, в котором компьютерная девушка могла общаться с юзерами и таким образом обучаться. Вскоре Tay переняла у пользователей сети расистские взгляды и хвасталась такими вещами, как употребление наркотиков на глазах полицейских.

Другие статьи категории "Общество":
Здесь вы можете написать комментарий

* Обязательные для заполнения поля
Twitter-новости

Найдите в админке сайта панель Directory News - Настройки, блок Нижний блок - Виджеты социальных сетей

Добавьте в него виджет Твиттера или виджет вашей группы в любой из социальных сетей.

Как создать виджет Твиттера, написано здесь.

Наши партнеры
Читать нас
Связаться с нами
Наши контакты

О сайте