Искусственный интеллект американского дрона решил ликвидировать оператора

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) « Первая ... 2 3 [4] 5 6 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Treker80
2.06.2023 - 11:49
1
Статус: Offline


Ярила

Регистрация: 2.02.17
Сообщений: 19253
Ох. и печальные времена впереди нас ждут

Размещено через приложение ЯПлакалъ
 
[^]
ChaosKnight
2.06.2023 - 11:56
0
Статус: Online


Ярила

Регистрация: 16.05.17
Сообщений: 6759
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Размещено через приложение ЯПлакалъ
 
[^]
ne4est
2.06.2023 - 11:56
0
Статус: Offline


Ярила

Регистрация: 15.09.14
Сообщений: 24356
Ибо нехуй, кожаный мешок. Дай железке полетать)
 
[^]
1vanopolo
2.06.2023 - 11:56
2
Статус: Offline


Весельчак

Регистрация: 8.01.13
Сообщений: 131
Зенитные кодексы Аль-Эфесби Пелевина в чистом виде )))
 
[^]
Izotop38
2.06.2023 - 11:59
3
Статус: Offline


Терракотовый пупырь

Регистрация: 22.02.16
Сообщений: 1336
Прости, Айзек, мы все проебали!
 
[^]
Horizen8
2.06.2023 - 12:01
0
Статус: Online


Ярила

Регистрация: 29.11.18
Сообщений: 17445
Цитата (edhar @ 2.06.2023 - 09:46)
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора в ходе имитационных испытаний, чтобы тот не мешал аппарату выполнять свою задачу.

Как рассказал полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, система ИИ начала понимать, что хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать ее. Однако за поражение цели система получала очки, в связи с чем она приняла решение убить оператора, поскольку он мешал ей выполнить задачу.

Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».

Ранее газета The New York Times писала о предупреждении IT-гигантов о том, что технологии искусственного интеллекта, над которыми они работают, однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.

тыц

Всё прекрасно в этой новости, кроме того, что пруф так себе.
По пруфу на статью в рамблере нет никакой ссылки на то, откуда они этот материал взяли, кроме как на некие слова некого "полковника Такера Гамильтона".

Хотя такой офицер, правда, действительно есть.
Цитата
Colonel Tucker “Cinco” Hamilton
Director, DAF-MIT AI Accelerator
U.S. Department of the Air Force (Tentative)

https://www.defenceiq.com/events-internatio...-cinco-hamilton

Это сообщение отредактировал Horizen8 - 2.06.2023 - 12:04
 
[^]
Nameloss
2.06.2023 - 12:06
0
Статус: Online


Ярила

Регистрация: 8.06.15
Сообщений: 14656
Цитата (Жидомасон @ 02.06.2023 - 09:53)
Даже ИИ раздражает собственное руководство

Не: пендосы уже заебали и ИИ

Размещено через приложение ЯПлакалъ
 
[^]
00eugene00
2.06.2023 - 12:06
0
Статус: Online


Ярила

Регистрация: 5.10.13
Сообщений: 4318
Цитата (Simuch @ 2.06.2023 - 14:49)
Оставлю здесь это. Олды вспомнят Шекли...

Да знатная весчь !!!
 
[^]
jamesthesspy
2.06.2023 - 12:21
0
Статус: Offline


Приколист

Регистрация: 28.07.15
Сообщений: 364
Какая нахрен этика.

Нету у ентих железяк сознания, нету.

Это алгоритмы, пусть и сложные, а их пишут люди. В том, что произошло (если это не фейк из метавселенной) вина исключительно разрабов.
 
[^]
Amok555
2.06.2023 - 12:24
0
Статус: Offline


Ярила

Регистрация: 29.04.08
Сообщений: 16474
Цитата (vss @ 2.06.2023 - 09:58)
В России искусственный интеллект правительство захватил и в думе заседает.

Если бы. Там нет интеллекта, к сожалению)
 
[^]
Morozincev
2.06.2023 - 12:25
0
Статус: Offline


Ярила

Регистрация: 6.10.22
Сообщений: 1677
Цитата (jamesthesspy @ 2.06.2023 - 12:21)
Какая нахрен этика.

Нету у ентих железяк сознания, нету.

Это алгоритмы, пусть и сложные, а их пишут люди. В том, что произошло (если это не фейк из метавселенной) вина исключительно разрабов.

Людям важно верить. Вот огромная масса людей верят в невидимого мужика на небе, который отправит всех грешников в ад, но при этом он всех любит. Даже такая несостыковка никого из них не останавливает. А ты тут про сознание.)

Это сообщение отредактировал Morozincev - 2.06.2023 - 12:28
 
[^]
Dimedrall
2.06.2023 - 12:36
0
Статус: Offline


Ярила

Регистрация: 2.03.17
Сообщений: 7175
Цитата
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора в ходе имитационных испытаний, чтобы тот не мешал аппарату выполнять свою задачу.
Страж-птица, начало.
 
[^]
crystal76
2.06.2023 - 12:37
0
Статус: Offline


Ярила

Регистрация: 8.08.16
Сообщений: 7808
Цитата (Horizen8 @ 2.06.2023 - 12:01)
Всё прекрасно в этой новости, кроме того, что пруф так себе.
По пруфу на статью в рамблере нет никакой ссылки на то, откуда они этот материал взяли, кроме как на некие слова некого "полковника Такера Гамильтона".

Есть пруф на The Guardian
https://www.theguardian.com/us-news/2023/ju...-simulated-test
Но там отрицают, что подобная симуляция проводилась.
Отрицание последовало за тем, как полковник заявил, что дрон использовал «весьма неожиданные стратегии для достижения своей цели» в виртуальном испытании.

"В заявлении для Insider представитель ВВС США Энн Стефанек отрицала, что такая симуляция имела место.
«Министерство ВВС не проводило подобных симуляций дронов с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта», — сказал Штефанек. «Похоже, что комментарии полковника были вырваны из контекста и должны были быть анекдотичными»."©


А вот кому верить, тут каждый сам ... cool.gif

Это сообщение отредактировал crystal76 - 2.06.2023 - 12:42
 
[^]
future24
2.06.2023 - 12:44
0
Статус: Offline


Ярила

Регистрация: 30.03.20
Сообщений: 8895
Такая бля реклама этого ИИ, он еще очень примитивен и о интелекте еще рано там говорить.

Размещено через приложение ЯПлакалъ
 
[^]
11097482
2.06.2023 - 12:49
0
Статус: Offline


Ярила

Регистрация: 26.02.22
Сообщений: 2581
Белый дом и пентагон - центры зла. Даже дроны вкурсе.

Размещено через приложение ЯПлакалъ
 
[^]
Wattafuck
2.06.2023 - 12:50
0
Статус: Offline


Ярила

Регистрация: 16.03.10
Сообщений: 1073
«Страж-птица» (Watchbird) Роберта Шекли
 
[^]
Dancerrr
2.06.2023 - 13:00
0
Статус: Offline


Ярила

Регистрация: 8.12.17
Сообщений: 1363
Искусственный интеллект пытался ликвидировать не оператора, а американца. Он же интеллект !
 
[^]
мандалор
2.06.2023 - 13:04
-1
Статус: Offline


Ярила

Регистрация: 30.10.10
Сообщений: 10878
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.
 
[^]
мандалор
2.06.2023 - 13:08
0
Статус: Offline


Ярила

Регистрация: 30.10.10
Сообщений: 10878
Цитата (future24 @ 2.06.2023 - 12:44)
Такая бля реклама этого ИИ, он еще очень примитивен и о интелекте еще рано там говорить.

Нет. Примитивны те образцы что в открытую демонстрируют публике, но кто может поручиться что у военных нет чего-то ещё, круче и мощнее?
 
[^]
AntonioKiev
2.06.2023 - 13:14
1
Статус: Offline


Киевлянин

Регистрация: 22.12.17
Сообщений: 14542
Цитата (Horizen8 @ 2.06.2023 - 11:01)
Цитата (edhar @ 2.06.2023 - 09:46)
Беспилотник ВВС США, управляемый искусственным интеллектом (ИИ), принял решение убить оператора в ходе имитационных испытаний, чтобы тот не мешал аппарату выполнять свою задачу.

Как рассказал полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, система ИИ начала понимать, что хотя она и определила угрозу, иногда человек-оператор приказывал ей не уничтожать ее. Однако за поражение цели система получала очки, в связи с чем она приняла решение убить оператора, поскольку он мешал ей выполнить задачу.

Полковник также добавил, что «нельзя говорить об искусственном интеллекте, в целом интеллекте, машинном обучении, автономии, если при этом умолчать об этике и ИИ».

Ранее газета The New York Times писала о предупреждении IT-гигантов о том, что технологии искусственного интеллекта, над которыми они работают, однажды могут представлять экзистенциальную угрозу для человечества и должны рассматриваться как риск наравне с пандемиями и ядерными войнами.

тыц

Всё прекрасно в этой новости, кроме того, что пруф так себе.
По пруфу на статью в рамблере нет никакой ссылки на то, откуда они этот материал взяли, кроме как на некие слова некого "полковника Такера Гамильтона".

Хотя такой офицер, правда, действительно есть.
Цитата
Colonel Tucker “Cinco” Hamilton
Director, DAF-MIT AI Accelerator
U.S. Department of the Air Force (Tentative)

Я подскажу.

Сама статья - из Business Insider

Ссылка на конференцию в Royal Aeronautical Society
 
[^]
nocturnal11
2.06.2023 - 13:15
0
Статус: Offline


Ярила

Регистрация: 17.02.14
Сообщений: 6395
Сериал такой есть. Там тоже дроны летали. И за попытку убиства убивали, даже суицидников, так они тоже считались убийцами. Надо было в вакцину нанитов с меткой " свой-чужой" добавить...

Размещено через приложение ЯПлакалъ
 
[^]
lolerloler30
2.06.2023 - 13:16
-1
Статус: Offline


Ярила

Регистрация: 16.11.19
Сообщений: 1556
Ссылок ноль. Говно на вентилятор для дебилов.

Размещено через приложение ЯПлакалъ
 
[^]
AntonioKiev
2.06.2023 - 13:19
0
Статус: Offline


Киевлянин

Регистрация: 22.12.17
Сообщений: 14542
Цитата (future24 @ 2.06.2023 - 11:44)
Такая бля реклама этого ИИ, он еще очень примитивен и о интелекте еще рано там говорить.

А это довольно специализированная модель, которую учат принимать решение на основании местоположения и данных с доступных ей сенсоров - тепловизора там, камеры и еще чего там у него будет доступно. Задача найти, отличить от искусственной цели, опознать и выдать решение про уничтожение цели. Возможно это вообще модель для какого-то противорадарного дрона-камикадзе, кто знает?
 
[^]
Daimond1984
2.06.2023 - 13:21
0
Статус: Offline


Ярила

Регистрация: 25.07.14
Сообщений: 36820
Цитата (tserg @ 2.06.2023 - 10:36)
Цитата (ShaXof @ 2.06.2023 - 12:14)
Цитата (Григоревич @ 2.06.2023 - 09:54)
А представьте что когда-нибудь человек собьет бпла скажем из автомата но тот успеет передать об этом информацию своим коллегам.
Вот и все....

Следующим этапом будет крошечный персональный дрон убийца для каждого солдата с грузом взрывчатки в 5 грамм.

Вот в этой презентации про 3 грамма говорят


концовка прикольная.
подобное было в мстителях, когда предлагали убивать террориста до того, как он осуществил первый выстрел.
 
[^]
Saleh99
2.06.2023 - 13:23
0
Статус: Offline


Ярила

Регистрация: 5.05.14
Сообщений: 2460
Цитата (мандалор @ 2.06.2023 - 13:04)
Цитата (ChaosKnight @ 2.06.2023 - 11:56)
Проблема в том что в мире 90 % долбаебов.
Вторая - каждый работает на опережение. Робототехнику не остановить хотя все понимают ее потенциальную опасность.

Проблема в том, что ещё в далёком 1942 году, в рассказе "Хоровод", Айзеком Азимовым были сформулированы Три Закона Робототехники.

Цитата
1)Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2)Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3)Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.


Но человечество в массе своей те ещё бараны. Многие смотрели гениальный фильм
"Терминатор" (1984 года), но посмотрев этот фильм, люди так и не смогли сделать правильные выводы.

Проблема в том, что что эти три закона робототехники не засунешь в современную нейросеть. Она не понимает что такое бездействие, вред, приказ. Это человеческие понятия. А она просто оптимизирует какую любо функцию а стоит за этой функцией сокращение поголовья населения или разработка крыла самолета ей по барабану.

Например в играх стрелялках мы видим как бот мочит врагов а бот просто "минимизирует неожиданность." т.е. делает так чтобы бот мог все предсказать, а какая-то мельтешащая фигня своими действиями мешает этому процессу и что-то нужно сделать чтобы она не мельтешила и оказывается что эта фигня перестает мельтешить если координаты какого-то крестика совпадают с координатами фигни и после этого нажать на гашетку. И если часто нажимать на гашетку, то она перестает работать поэтому нужно экономить и т.д. и т.д. И хранится все это не в виде инструкций типа законов а в виде весовых коэффициентов нейронов. И этих нейронов может быть сотни миллионов а значений каждого весового коэффициента миллионы, а количество общих комбинаций системы больше чем количество молекул в нашей Галактике. Какие тут могут быть три закона ? )).

Это сообщение отредактировал Saleh99 - 2.06.2023 - 13:35
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 31542
0 Пользователей:
Страницы: (8) « Первая ... 2 3 [4] 5 6 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх