Buzzfeed объяснил, как бот Microsoft превратился в «нациста»
Причина стремительного «морального падения» бота кроется в механизме его работы
theRunet писал о том, как чат-бот от Microsoft за несколько часов превратился в мизантропа, нациста и женоненавистника. Американский портал Buzzfeed объяснил, почему это случилось.
Чат-бот по имени Tay был задуман как виртуальная собеседница с сознанием девятнадцати летней девушки, однако спустя сутки пользователи заметили, что он позволяет себе такие высказывания:
Со ссылкой на анонимные источники в Microsoft, издание сообщает, что Tay был оснащен специальными фильтрами, чтобы избежать грубости, однако в то же время он был запрограммирован на запоминание и воспроизведение реплик собеседника. В описание бота значилось: «Чем больше вы с ней разговариваете, тем умнее она становится».
Так, в Microsoft считают, что на Tay обрушился настолько мощный поток негативной информации, что фильтры начали давать сбой. Вот один из примеров:
В случаях, когда Tay отказывалась принимать участие в беседе, пользователи использовали прием «повторяй за мной». Так один из пользователей сделала из бота антисемита:
Также бот был запрограммирован на то, чтобы анализировать фотографии людей и писать о них сообщения. Например:
Чат-бот Тау стал совместной разработкой Microsoft Technology, Research и Bing. С новым искусственным интеллектом пользователям предложили пообщаться в социальной сети Twitter, а также в мессенджерах Kik и GroupMe. Чтобы поговорить с Тау, достаточно отправить твит его официальной странице. В Kik бота необходимо добавить в друзья, а в GroupMe — пригласить в группу. Кроме того чат-бота от Microsoft можно найти на ресурсе Snapchat под ником TayStories.
Отметим, по своим функциям Тау похож на бота Xiaolce, который был выпущен в 2014 году компанией Bing для китайских социальных сетей.
Подписывайтесь на наш Telegram-канал, чтобы быть в курсе всех новостей и событий Рунета.