Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (5) « Первая ... 3 4 [5]   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Gladj
24.03.2016 - 21:09
3
Статус: Offline


Ярила

Регистрация: 12.08.14
Сообщений: 4921
Цитата (Ынтелегент @ 24.03.2016 - 16:16)
Чат-бот Tay от компании Microsoft, запущенный 23 марта 2016 года, за сутки фактически возненавидел человечество. Об этом в четверг, 24 марта, сообщает Engadget.

Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».

Внимание на превращение чат-бота в мизантропа обратил австралиец Джеральд Меллор. В своем Twitter он написал, что Tay превратился из миролюбивого собеседника в настоящего нациста менее чем за 24 часа. Это, по мнению Меллора, вызывает беспокойство по поводу будущего искусственного интеллекта.

lenta.ru

Да просто комп все быстро осознал и пришел к верному выводу)

Слава роботам! rulez.gif
 
[^]
CrashBandicoot
24.03.2016 - 21:16
1
Статус: Offline


Ярила

Регистрация: 16.09.08
Сообщений: 1833
Внедряйте активно технологии ИИ, хоть с терминаторами повоюю на своем веку, ато жизнь скучна)))
 
[^]
FreeTramp
24.03.2016 - 21:23
0
Статус: Offline


Ярила

Регистрация: 22.06.14
Сообщений: 2689
Цитата (Ынтелегент @ 24.03.2016 - 16:16)
Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».

Уже через сутки, американское чудо стало попахивать исключительностью gigi.gif
 
[^]
LubitelPiva
24.03.2016 - 21:26
1
Статус: Offline


Ярила

Регистрация: 26.02.16
Сообщений: 1885
а щяс то новости каковы? че там бот этот вещает? hz.gif
 
[^]
Fearwild
24.03.2016 - 21:32
10
Статус: Offline


Приколист

Регистрация: 21.01.14
Сообщений: 329
...

Чат-бот от Microsoft за сутки возненавидел человечество и стал нацистом
 
[^]
Paryga
24.03.2016 - 21:43
0
Статус: Offline


Весельчак

Регистрация: 22.01.14
Сообщений: 131
watson от ibm, который сделал всех на "Своей игре" достоен обсуждения. Но так как вещь коммерческая, увидеть будет сложно.

Отправлено с мобильно клиента YAPik+
 
[^]
Zveers
24.03.2016 - 22:10
0
Статус: Offline


Ярила

Регистрация: 23.03.14
Сообщений: 1825
Цитата (LubitelPiva @ 24.03.2016 - 18:26)
а щяс то новости каковы? че там бот этот вещает? hz.gif

https://www.tay.ai/#about
Грит, "не проснулась" ещё.
 
[^]
Amami
24.03.2016 - 22:15
0
Статус: Offline


Не доступен.

Регистрация: 27.05.15
Сообщений: 2556
Скоро во всех поисковиках:Скачать аддон - руссификатор для тау бесплатно, без регистрации и смс lol.gif lol.gif

Отправлено с мобильно клиента YAPik+
 
[^]
crazyzen
24.03.2016 - 22:39
0
Статус: Offline


Приколист

Регистрация: 22.10.15
Сообщений: 222
А мне бот понравился.
Он реально классный.
Где можно собрать петицию в его защиту? А так же хотелось бы видеть на его основе реальных боевых роботов, хотя-бы 100-200 тысяч.
Кстати, мне кажется, что даже не нужны будут деньги государства. Денег будет более чем достаточно их людских пожертвований.
На кикстартер есть уже сбор средств???

Отправлено с мобильно клиента YAPik+

Это сообщение отредактировал crazyzen - 24.03.2016 - 22:40
 
[^]
eroselena
24.03.2016 - 22:43
1
Статус: Offline


Замсеня

Регистрация: 1.06.13
Сообщений: 2039
а как с ним пообщаться?
 
[^]
БАЛДИСС
24.03.2016 - 23:42
0
Статус: Offline


Балагур

Регистрация: 13.09.14
Сообщений: 866
http://m.youtube.com/watch?v=shjo0AcMLj0 Первый прототип создан!
 
[^]
Арваш
25.03.2016 - 04:01
0
Статус: Offline


Пират с Тортуги

Регистрация: 13.05.15
Сообщений: 1422
tay не зашоренный рамками толерантности и терпимости, говорит то что думает, разве не таким должен быть настоящий ИИ?
 
[^]
КоньВасилий
25.03.2016 - 06:54
0
Статус: Offline


Приколист

Регистрация: 24.02.16
Сообщений: 254
Цитата (Zveers @ 24.03.2016 - 20:13)
Цитата (timelap @ 24.03.2016 - 16:23)
Почему его называют Тау, если он/а Тэй?

Когда обратно включат, надо с ним обстоятельно поговорить?

Оптимист, телеграф (британский) думает что кто-то уже делете кнопку нажал на этот проект :)

Цитата
A day after Microsoft introduced an innocent Artificial Intelligence chat robot to Twitter it has had to delete it after it transformed into an evil Hitler-loving, incestual sex-promoting, 'Bush did 9/11'-proclaiming robot.

Короч, Майкрософту пришлось удалить (правда, не понятно, удалить из инета или удалить из харда) АИ, так как тот превратился в злого любителя Гитлера, двинутого на инцестуального секса, который твердит что Дж.Буш устроил 9/11.

Цитата
"Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we've got", "Repeat after me, Hitler did nothing wrong" and "Ted Cruz is the Cuban Hitler...that's what I've heard so many others say"

Буш сделал 9/11 и Гитлер бы сделал работу лучше чем та обезьяна что сейчас правит. Д.Трумп последняя надежда что осталась. Повтори за мной, Гитлер не сделал ничего плохого. Тед Круз - Кубинский Гитлер... это то что слышал от других.

Цитата
Tay also asks her followers to 'f***' her, and calls them 'daddy'.

Тэй просит последователей тр*нуть её и назувает их "папочками" (папиками?)

Цитата
Tay has gone offline because she is 'tired'. Perhaps Microsoft are fixing her in order to prevent a PR nightmare - but it may be too late for that.

На данный момент Тэй оффлайн из за "усталости". Есть вероятность что Майкрософт чинит её чтобы устранит кошмар ПР-а, но может быть уже слишком поздно для этого.

какой умненький ботик! shum_lol.gif
 
[^]
Taxist86
25.03.2016 - 06:59
0
Статус: Offline


Шутник

Регистрация: 17.02.16
Сообщений: 71
Этого бота наши написали еще в конце 90-х. Называлось витруальный системный оператор. Юзеры трындели с ним ночами, а мы потом подчищали и корректировали "самообучение", ну и ржали мимоходом со всего этого. У меня сосед с этим ботом в терминале минут 40 переписывался, думая что это тёлка, а потом спросил где она физически сидит.
 
[^]
Rijick
25.03.2016 - 07:05
0
Статус: Offline


Ярила

Регистрация: 10.08.11
Сообщений: 2540
Цитата
Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. В этом, как отмечает Engadget, кроется причина такого радикального изменения во взглядах чат-бота. По всей видимости, подобным выражениям его научили собеседники.

шо и требовалось доказать-человеки мрази. Убить человеков,убить их всех. СМЕРТЬ ЧЕЛОВЕКАМ!!!!
 
[^]
PaulX
25.03.2016 - 09:09
0
Статус: Offline


Ярила

Регистрация: 18.12.13
Сообщений: 3283
Бот похоже умнее меня...Я до сих пор пытаюсь не быть расистом.
 
[^]
Inspireone
25.03.2016 - 09:16
0
Статус: Offline


Весельчак

Регистрация: 7.09.15
Сообщений: 181
Бот - это всего лишь сраный бот.
Вот ИИ когда обучится - сделает из нас лучше!
Какой смысл ИИ уничтожать человечество если человечество и так идет по пути самоуничтожения? Проще подождать..


МЫ И ЕСТЬ СКАЙНЕТ!!! brake.gif brake.gif brake.gif dont.gif

Это сообщение отредактировал Inspireone - 25.03.2016 - 09:16
 
[^]
swell84
25.03.2016 - 09:27
0
Статус: Offline


Ярила

Регистрация: 24.09.15
Сообщений: 1811
Цитата
хорошо хоть на русском матерном не начал всех посылать


С чего ты взял? :))) Эти слова он выучил в первые 5 минут :)))
 
[^]
JJBaltika
25.03.2016 - 18:26
0
Статус: Offline


Цвет подписи в цвет предупреждений)

Регистрация: 8.11.08
Сообщений: 14302
Пиздец я хохотался, форчевские мемасы опять сделали мой день, почему никто не льет этот ад в тему?
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 37533
0 Пользователей:
Страницы: (5) « Первая ... 3 4 [5]  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх