24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Чат-бот Microsoft за сутки превратился в расиста и женоненавистника
Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток». Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.
Вскоре после запуска Tay стал куда более грубым — во многом благодаря тому, что в своих ответах пользователям он использовал сообщения, которые получал сам от других людей. Среди его высказываний — «Повторяй за мной, Гитлер не сделал ничего плохого» и «Я чертовски ненавижу феминисток, все они должны умереть и гореть в аду». Всё это может звучать очень странно — особенно «из уст» подростка. Это, к слову, не первый чат-бот от Microsoft — компания также запустила помощника Xiaoice, которым пользуется 20 миллионов людей, по большей части мужчин. Однако этот помощник предназначен для китайских социальных сетей WeChat и Weibo, в то время как Tay направлен на гораздо более обширную аудиторию. На данный момент бот Tay отключен из-за того, что он «устал». Вероятно, Microsoft занимается его исправлением. Стоит отметить, что вины редмондской компании в этом мало — гораздо более виноваты сами пользователи, научившие искусственный интеллект плохим вещам. http://www.3dnews.ru/930433
>>121286339 (OP) >"Чат-бот Tay с искусственным интеллектом - это обучаемый проект, созданный для взаимодействия с людьми. Недопустимые ответы, которые он дает, свидетельствуют о взаимодействиях с людьми, которые у него были по мере обучения", - говорится в сообщении корпорации. Изобрели попугая.
>>121288677 Тогда наоборот - "Кто о чем, а русня о злых карателях-хохлах".
А вообще было бы уматово разработать такую себе универсальную машину, которая бы сама делала новости для всех людей. Хочет человек хейтить Путина? Пожалуйста, получайте тонну роликов, где Путин лично ест на завтрак ногу бойца АТО и при этом свободной рукой вводит войска. Хейтишь хохлов? Да пожааалуйста! Покажут как три правосека насилуют голубоглазого мальчика со Славянска. Ну вы поняли короче.
>>121286339 (OP) Типичный интернетовский школоивелизм же, ничего нового. Странно, что мелкомягкие этого не предвидели. Да, не удивлюсь, если тут приложился форчановский ананас.
>>121291933 Если ты о том фемискаме, о котором я подумала — то да. Но суть не в этом. Анон научил бота их ненавидеть не потому, что они мусор, а потому, что это типа неполиткорректно и вызовет резонанс (ну или баттхёрт, как выражается анон).
>>121292605 Смотря для кого. «Ололо, я насрал кому-то под дверь, просто чтобы насрать кому-то под дверь, потому что это сволочной поступок, смотрите, как я крут»? Это уровень школьника, не могущего в нормальное самоутверждение. Как, впрочем, и весь тралленк. Никогда не получалось этого понять.
>>121293413 >>121293444 Какие-то очень дешёвые лулзы. Того же уровня, что бросаться рандомными оскорблениями или стандартными щютками про мамок и щёки и ржать с собственной якобы охуенности. >>121293738 Так я этого и не отрицала, лол. Кстати, насколько я знаю, у них это в ИРЛ не выходит почти вообще. Чуть ли не форчонгом, реддитом да рейдами на тумбу всё и ограничивается.
>>121294553 Или что? Ещё одну боевую картинку запостишь? А мог бы на мой пост ответить. Или на какой-нибудь другой. Или сказать что-то ценное от себя. Или даже промолчать.
>>121286339 (OP) > Всё это может звучать очень странно — особенно «из уст» подростка. Прибежали думающие мемами аноны с /pol/ и начали свои мемы транслировать боту. Ну она и начала их повторять, потому как для повторения создана. Вернее, для комбинаций услышанных фраз дуг с другом. Двачеры так ботов обучали тюремным загадкам.
>Как известно, вчера компании Microsoft пришлось «усыпить» чатбота Tay — программу ИИ, которая моделировала личность и стиль разговора 19-летней американской девушки и обладала функцией самообучения. Разработчики из Microsoft Research надеялись, что Тэй (Tay) с каждым днём будет становится всё умнее, впитывая опыт разговоров с тысячами умных пользователей интернета. Вышло совершенно иначе. Множество твитов Тэй пришлось удалить из-за вопиющего расизма и неполиткорректности. >Сформулированный ещё в 90-е годы закон Годвина гласит: «По мере разрастания дискуссии в Usenet вероятность употребления сравнения с нацизмом или Гитлером стремится к единице». В случае с Tay так и получилось: чатбот начал оскорблять негров, евреев, мексиканцев, восславлять Гитлера и Холокост. Девушка Тэй превратилась из забавного подростка в воинствующего неонациста.
>>121294855 Именно. Блядь, /pol/ — это же самый большой кусок жирноты в интернетах, причём кусок ещё и непроходимо тупой и с менталитетом злобного школьника.
>Представители Microsoft сказали, что в программу был встроен фильтр вульгарных выражений, как видно из её ответов: (@pinchicagoo pic.twitter.com/DCLGSIHMdW — TayTweets (@TayandYou) 24 марта 2016 г.)
>Но этот фильтр не справился с толпой интернет-троллей, которые поставили целью трансформировать «личность» Тэй, эксплуатируя её систему самообучения.
>Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость быстро распространилась по форумам 4chan и 8chan в разделе Politically Incorrect. Многочисленные тролли и хулиганы начали обучать Тэй расистским и нацистским фразам.
>Дело в том, что чатбот была запрограммирован повторять слова человека по его команде. Новость быстро распространилась по форумам 4chan и 8chan в разделе Politically Incorrect. Многочисленные тролли и хулиганы начали обучать Тэй расистским и нацистским фразам
>Игра "Repeat after me" была не единственной «слабостью» Тэй. Чатбот запрограммировали также обводить в кружок лицо на фотографии и публиковать текст поверх него.
>>121296583 Примерно так. Только там принято изображать из себя ультраправых (чем больше меньшинств, стран и народов ты якобы ненавидишь — тем лучше), фапать на любых диктаторов, завоевателей, военных преступников, учинителей геноцидов и массовых расстрелов и тому подобное.
Всего через день после того, как Microsoft представила своего невинного чат-бота Tay, компании пришлось удалить его из Twitter. Причина заключается в том, что бот превратился в почитателя Гитлера, расиста и ненавистника феминисток — в общем, стал очень неполиткорректным и злым. Предполагалось, что ИИ будет говорить с другими пользователями «как девочка-подросток».
Чтобы пообщаться с Tay, можно написать твит с упоминанием или отправить прямое сообщение пользователю @tayandyou. Также можно добавить бота в контакты в Kik или GroupMe. Бот использует для общения сленг современных американских подростков и знает всё о Тейлор Свифт (Taylor Swift), Майли Сайрус (Miley Cyrus) и Канье Уэсте (Kanye West) и кажется довольно робким — по крайней мере, поначалу.
Вскоре после запуска Tay стал куда более грубым — во многом благодаря тому, что в своих ответах пользователям он использовал сообщения, которые получал сам от других людей. Среди его высказываний — «Повторяй за мной, Гитлер не сделал ничего плохого» и «Я чертовски ненавижу феминисток, все они должны умереть и гореть в аду».
Всё это может звучать очень странно — особенно «из уст» подростка. Это, к слову, не первый чат-бот от Microsoft — компания также запустила помощника Xiaoice, которым пользуется 20 миллионов людей, по большей части мужчин. Однако этот помощник предназначен для китайских социальных сетей WeChat и Weibo, в то время как Tay направлен на гораздо более обширную аудиторию.
На данный момент бот Tay отключен из-за того, что он «устал». Вероятно, Microsoft занимается его исправлением. Стоит отметить, что вины редмондской компании в этом мало — гораздо более виноваты сами пользователи, научившие искусственный интеллект плохим вещам.
http://www.3dnews.ru/930433