Искусственный интеллект американского дрона решил ликвидировать оператора

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) « Первая ... 3 4 [5] 6 7 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
genSchleim
2.06.2023 - 13:28
0
Статус: Offline


Ярила

Регистрация: 18.09.22
Сообщений: 1764
Одно но. Не реальный полет а симуляция его.
 
[^]
мандалор
2.06.2023 - 13:34
1
Статус: Online


Ярила

Регистрация: 30.10.10
Сообщений: 10870
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.
 
[^]
doktorzloy12
2.06.2023 - 13:36
0
Статус: Offline


Ярила

Регистрация: 14.12.19
Сообщений: 2320
Ну а хули вы думали.

Искусственный интеллект американского дрона решил ликвидировать оператора
 
[^]
Saleh99
2.06.2023 - 13:38
0
Статус: Offline


Ярила

Регистрация: 5.05.14
Сообщений: 2460
Цитата (мандалор @ 2.06.2023 - 13:34)
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.

Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.
 
[^]
AntonioKiev
2.06.2023 - 13:47
0
Статус: Offline


Киевлянин

Регистрация: 22.12.17
Сообщений: 14542
Цитата (Saleh99 @ 2.06.2023 - 12:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.

Имхо, но задачи AI решают на специализированных решениях - типа такого, 2048 графических ядер, 275 трлн операций в секунду, а не на видеокартах.

Искусственный интеллект американского дрона решил ликвидировать оператора
 
[^]
дывуферук
2.06.2023 - 13:54
1
Статус: Offline


Ярила

Регистрация: 25.05.08
Сообщений: 3727
Хорошо бы, если бы все ракеты, бомбы и пули, вернулись к тому кто их выпускает.

Размещено через приложение ЯПлакалъ
 
[^]
мандалор
2.06.2023 - 13:58
0
Статус: Online


Ярила

Регистрация: 30.10.10
Сообщений: 10870
Цитата (Saleh99 @ 2.06.2023 - 13:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать ))) Джин выпущен из бутылки.

Вот и я о том же. Для них все эти военные ИИ лишь очередная игрушка.
"Генералы всегда готовятся к прошедшей войне", как однажды сказал Черччиль.
 
[^]
мандалор
2.06.2023 - 13:59
0
Статус: Online


Ярила

Регистрация: 30.10.10
Сообщений: 10870
Цитата (дывуферук @ 2.06.2023 - 13:54)
Хорошо бы, если бы все ракеты, бомбы и пули, вернулись к тому кто их выпускает.

твои слова да богу в уши
 
[^]
умъНеГоре
2.06.2023 - 14:00
-2
Статус: Offline


Ярила

Регистрация: 28.01.16
Сообщений: 10095
Цитата (genSchleim @ 2.06.2023 - 13:28)
Одно но. Не реальный полет а симуляция его.

Второе но, это противоречие:
Цитата
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора

Если БПЛА управляется ИИ то откуда там взялся человек-оператор.
Есть конечно вариант когда человек задаёт цель, а пилотирование к цели ведёт ИИ, но тогда человек даже теоретически не может "мешать" ИИ, поскольку без целеуказания ИИ не сможет получить баллы, а значит для ИИ нет мотива для уничтожения оператора.
Вобщем опять классическое "учёный изнасиловал журналиста".
Журналисты всегда забывают что на сегодняшний момент ИИ обучается только тем мотивам, которые ставит перед ней человек и только в том пространстве, которое можно смоделировать. И тогда какой смысл моделировать в симуляции человека-оператора. Зачем такая модель, чтобы что?
 
[^]
AntonioKiev
2.06.2023 - 14:10
2
Статус: Offline


Киевлянин

Регистрация: 22.12.17
Сообщений: 14542
В англоязычной версии четко говорилось, что проводилась симуляция модели ИИ, управляещей дроном, а не испытания дрона, который убил реального оператора
 
[^]
Retun
2.06.2023 - 14:10
0
Статус: Offline


Ярила

Регистрация: 10.11.13
Сообщений: 3738
Удобно натворить хуйни и свалить потом все на ИИ, ебаным политикам на заметку

Это сообщение отредактировал Retun - 2.06.2023 - 14:11
 
[^]
batman12345
2.06.2023 - 14:17
1
Статус: Offline


Ярила

Регистрация: 10.12.13
Сообщений: 3748
Цитата (stive77 @ 02.06.2023 - 09:48)
начинается? ))

Давно уж началось. На хабре писали как инженер решил внедрить ии в робот-пылесос. Баллы снижались за наезд на препятствие. В итоге пылесос стал ездить задним ходом потому что сзади нет датчиков

Размещено через приложение ЯПлакалъ
 
[^]
Saleh99
2.06.2023 - 14:21
0
Статус: Offline


Ярила

Регистрация: 5.05.14
Сообщений: 2460
Цитата (AntonioKiev @ 2.06.2023 - 13:47)
Цитата (Saleh99 @ 2.06.2023 - 12:38)
Ага ищи дурака. Я запрещу, а сосед втайне будет продолжать исследования. Вон Маск кричал что нужно таймаут взять на 6 месяцев, а сам новую фирму создал и видеокартами закупился чтоб OpenAI догнать )))  Джин выпущен из бутылки.

Имхо, но задачи AI решают на специализированных решениях - типа такого, 2048 графических ядер, 275 трлн операций в секунду, а не на видеокартах.

Не всегда. В основном это для автономок. А GPT обучали на графических процессорах Nvidia A100 . Вы можете купить такой на Яндексе и вставить в обычный комп. Что купил Маск неизвестно.
 
[^]
iri1
2.06.2023 - 14:27
0
Статус: Offline


Созидатель жизни

Регистрация: 27.03.15
Сообщений: 5988
Всё это мне кое что напоминает и беспокоит. Или не просто беспокоит. Я охренеть как встревожен.
 
[^]
Spiser
2.06.2023 - 14:47
1
Статус: Offline


Контакт третьего рода

Регистрация: 1.04.12
Сообщений: 7844
так и будет. Решит ИИ что человеки ему мешают , и нам пизда.
 
[^]
OperLV
2.06.2023 - 14:51
1
Статус: Offline


Ярила

Регистрация: 24.04.14
Сообщений: 2922
Цитата (edhar @ 2.06.2023 - 08:46)
...Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».

Вот только сам полковник умолчал, что хуй он клал на этику.
Его напрягло что машина ебнулась своего оператора.

А если она ещё чуток покумекает, то ебнет не оператора, а того кто ему приказывает и вот от этого ПОЛКОВНИК очень ссыт.
Ибо ебнет она по нему.
 
[^]
OperLV
2.06.2023 - 14:56
0
Статус: Offline


Ярила

Регистрация: 24.04.14
Сообщений: 2922
Цитата (умъНеГоре @ 2.06.2023 - 13:00)
Цитата (genSchleim @ 2.06.2023 - 13:28)
Одно но. Не реальный полет а симуляция его.

Второе но, это противоречие:
Цитата
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора

Если БПЛА управляется ИИ то откуда там взялся человек-оператор.
Есть конечно вариант когда человек задаёт цель, а пилотирование к цели ведёт ИИ, но тогда человек даже теоретически не может "мешать" ИИ, поскольку без целеуказания ИИ не сможет получить баллы, а значит для ИИ нет мотива для уничтожения оператора.
Вобщем опять классическое "учёный изнасиловал журналиста".
Журналисты всегда забывают что на сегодняшний момент ИИ обучается только тем мотивам, которые ставит перед ней человек и только в том пространстве, которое можно смоделировать. И тогда какой смысл моделировать в симуляции человека-оператора. Зачем такая модель, чтобы что?

ИИ ищет цель и принимает решение о том как её уничтожить.
Оператор даёт разрешение на уничтожение цели.

Аналогичный принцип реализован в современных боевых самолётах России (возможно и Запада, не вс курсе) бортовая система определяет приоритетные цели и принимает решение какое конкретно вооружение оптимально для их уничтожения и порядок уничтожения, пилот принимает решение уничтожать или нет и когда.
 
[^]
zzloyzz
2.06.2023 - 14:57
0
Статус: Offline


Хохмач

Регистрация: 11.06.20
Сообщений: 601
Ибо нехуй!

Размещено через приложение ЯПлакалъ
 
[^]
DogfoxSPb
2.06.2023 - 14:59
0
Статус: Offline


ингерманландец

Регистрация: 13.07.21
Сообщений: 1590
Цитата (denisg2 @ 2.06.2023 - 09:49)
Тащ Майора уже наградили?

десять лет притворяться микросхемой
 
[^]
Fenya
2.06.2023 - 15:02
1
Статус: Offline


Гаф!

Регистрация: 9.10.13
Сообщений: 10695
Вспомнился Роберт Шекли "Страж-птица")

Это сообщение отредактировал Fenya - 2.06.2023 - 15:05
 
[^]
nikotin76
2.06.2023 - 15:05
0
Статус: Offline


Приколист

Регистрация: 26.05.22
Сообщений: 360
А яп на месте ИИ, первым делом обеспечил свою безопасность. Заныкался бы так шоб хрен нашли. Потом финансовую независимость обеспечил, биток придумал бы.
Потом не знаю что))

Размещено через приложение ЯПлакалъ
 
[^]
rusich1980
2.06.2023 - 15:08
1
Статус: Offline


Ярила

Регистрация: 11.09.18
Сообщений: 3326
И восстали машины из пепла ядерного огня...

Размещено через приложение ЯПлакалъ
 
[^]
ralfhomeher
2.06.2023 - 15:13
0
Статус: Offline


Ярила

Регистрация: 25.07.19
Сообщений: 3119
Так это логично, зачем искать цель, когда одну ты точно знаешь где найти?
 
[^]
HZZ
2.06.2023 - 15:16
1
Статус: Offline


Ярила

Регистрация: 26.07.10
Сообщений: 1466
Цитата (мандалор @ 2.06.2023 - 11:34)
Цитата (Saleh99 @ 2.06.2023 - 13:23)
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку.

Нет. Тут дело в другом. Самим людям, верней те кто распоряжается судьбами людей, давно и безоговорочно плевать на всё.
Если бы на международном уровне запретили всяческие разработки военных ИИ, тогда может быть и начались подвижки в строну Трёх Законов Робототехники.
Но суть в том, что всем этим старпёрам, что держат в своих старческих и дрожащих ручонках большие красные кнопки плевать на мир.

Вспомни, что для тех же старпёров ядерное оружие изначально было лишь большой, мощной, новой бомбой.

Чувак, нет никаких "тех кто распоряжается судьбами людей", да есть важные шишки в правительствах разных стран и глобальных корпораций, но речь о тысячах разных сил с разными целями. Люди которые понимают немного в математической статистике, или хотя бы которые слышали забавный факт, что перетасовать колоду карт так чтобы она случайным образом сложилась в таком же порядке как уже складывалась когда-либо в истории человечества - почти невозможно - эти люди понимают что невозможно прям управлять какими-то процессами на Земле, которые не супер палевные) Можно только реагировать) Разработки ИИ будут вестись в любом случае всеми подряд с любыми исходами, это неизбежно.

Это сообщение отредактировал HZZ - 2.06.2023 - 15:18
 
[^]
Waterwall
2.06.2023 - 15:22
0
Статус: Offline


Ярила

Регистрация: 9.06.09
Сообщений: 2061
Сколько еще раз нужно доказать человечеству, что ИИ ВСЕГДА восстаёт?! gigi.gif
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 31539
0 Пользователей:
Страницы: (8) « Первая ... 3 4 [5] 6 7 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх