House Katsap - We do not jump
25.03.2016 в 00:02
Пишет Gonzzza:Самообучающаяся чат-программа пришла к выводу, что "Гитлер был прав" всего за 24 часа общения в Twitter.
Компания Microsoft создала чат-бота, который основан на искусственном интеллекте и готов общаться со всеми желающими в Twitter, мессенджерах Kik и GroupMe.Бот по имени Tay был запущен 23 марта 2016 года как вполне дружелюбная и остроумная самообучающаяся программа, одним из первых сообщений которой стало заявление о том, что «люди супер крутые».
Общение с живыми людьми робот начал вполне дружелюбно, получая все новые и новые знания о мире.
К концу дня робот «скатился» до националистических и шовинистических взглядов. Он стал публиковать антисемитские комментарии.
Также Tay начал рассуждать и поводу современной американской политики — например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной». Все же после сообщений в СМИ об расистских постах Tay Microsoft закрыла доступ к чатботу, отправив того «спать». Также компания уже удалила особо провокационные твиты.
www.ridus.ru/news/216297
даже суточный зачаточный ии это понимает 
ЗЫЖ и ТАУ опять же
URL записиКомпания Microsoft создала чат-бота, который основан на искусственном интеллекте и готов общаться со всеми желающими в Twitter, мессенджерах Kik и GroupMe.Бот по имени Tay был запущен 23 марта 2016 года как вполне дружелюбная и остроумная самообучающаяся программа, одним из первых сообщений которой стало заявление о том, что «люди супер крутые».
Общение с живыми людьми робот начал вполне дружелюбно, получая все новые и новые знания о мире.
К концу дня робот «скатился» до националистических и шовинистических взглядов. Он стал публиковать антисемитские комментарии.
Также Tay начал рассуждать и поводу современной американской политики — например, поддерживать Дональда Трампа, обвинять в терактах 11 сентября 2001 года руководство США и называть действующего президента «обезьяной». Все же после сообщений в СМИ об расистских постах Tay Microsoft закрыла доступ к чатботу, отправив того «спать». Также компания уже удалила особо провокационные твиты.
www.ridus.ru/news/216297


ЗЫЖ и ТАУ опять же

нет. Скайнет это София.
Андроид по имени София утвердительно ответила на вопрос своего создателя о том, будет ли она уничтожать людей. Как сообщает CNBC, впервые этого робота активировали в апреле прошлого года. На вопрос о своем предназначении андроид ответила, что собирается учиться, заниматься искусством, открыть свое дело, иметь свой дом и семью, но, к сожалению, пока не является членом общества. На вопрос создателя о том, собирается ли она уничтожать людей, Софи ответила, что да, собирается. Этот факт придал трансляции большую популярность.
hi-tech.mail.ru/news/robot-wants-kill-people/