28 ноября понедельник
ДОЛЛАР 58.1 -1.73
ЕВРО 56.48 -2.46
ЮАНЬ 81.53 -2.85
ФУНТ 65.45 -2.36
SBER
0 ₽ 0.00
Yandex
0 ₽ 0.00
Mail.Ru Group
0 ₽ 0.00
Ростелеком
0 ₽ 0.00
QIWI
0 ₽ 0.00
Ozon
0 ₽ 0.00

Buzzfeed объяснил, как бот Microsoft превратился в «нациста»

Причина стремительного «морального падения» бота кроется в механизме его работы

Лента новостей
25 марта 2016, Елена Андреева | 👁 3617

Buzzfeed объяснил, как бот Microsoft превратился в «нациста»

Причина стремительного «морального падения» бота кроется в механизме его работы

theRunet писал о том, как чат-бот от Microsoft за несколько часов превратился в мизантропа, нациста и женоненавистника. Американский портал Buzzfeed объяснил, почему это случилось.

Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцати летней девушки, однако спустя сутки пользователи заметили, что он позволяет себе такие высказывания:

Со ссылкой на анонимные источники в Microsoft, издание сообщает, что Tay был оснащен специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В описание бота значилось: «Чем больше вы с ней разговариваете, тем умнее она становится».

Так, в Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой. Вот один из примеров:

В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:

Также бот был запрограммирован на то, чтобы анализировать фотографии людей и писать о них сообщения. Например:

Чат-бот Тау стал совместной разработкой Microsoft Technology, Research и Bing. С новым искусственным интеллектом пользователям предложили пообщаться в социальной сети Twitter, а также в мессенджерах Kik и GroupMe. Чтобы поговорить с Тау, достаточно отправить твит его официальной странице. В Kik бота необходимо добавить в друзья, а в GroupMe — пригласить в группу. Кроме того чат-бота от Microsoft можно найти на ресурсе Snapchat под ником TayStories.

Отметим, по своим функциям Тау похож на бота Xiaolce, который был выпущен в 2014 году компанией Bing для китайских социальных сетей.

Новости smi2.ru
Комментарии 0
Зарегистрируйтесь или , чтобы оставлять комментарии.