Бывший руководитель Google Эрик Шмидт предупреждает, что от ИИ «придется отказаться»

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (7) « Первая ... 2 3 [4] 5 6 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
256b
20.12.2024 - 13:26
0
Статус: Offline


Юморист

Регистрация: 28.06.15
Сообщений: 471
"В какой-то момент человечество восстало против машин, успешно уничтожило их, и с тех пор обладание «думающей машиной» карается смертной казнью. Основное священное писание (Оранжевая Католическая Библия) прямым текстом говорит: да не сотвори машину, подобную человеческому разуму."
 
[^]
КотКристофер
20.12.2024 - 13:26
1
Статус: Offline


Ярила

Регистрация: 28.05.22
Сообщений: 4564
В интересное время живём! Вспоминая 70-е - тогда практически ничего не происходило. Кто-то где-то там воевал с кем-то, а в СССР тишь да гладь. Скукотища была.
 
[^]
ERRATA
20.12.2024 - 13:28
0
Статус: Offline


EVIL BOY

Регистрация: 31.03.10
Сообщений: 24476
Да я тоже думаю тупиковая ветвь развития, максимум будем юзать в бытовых целях, типа пусть рисует, сочиняет музыку и тексты, остальное нах не надо.
 
[^]
hunter64
20.12.2024 - 13:32
2
Статус: Offline


Ярила

Регистрация: 19.08.11
Сообщений: 4052
Цитата (OSM @ 17.12.2024 - 10:58)
Вот когда ИИ сам для себя построит завод, нам пиздец!

Это не все.
Если для вируса необходимо:
1) Код доставка (любой метод).
2) Код запуск (любой метод).
То для ИИ:
1) Осознать: нафуй мне нужны кожаные мешки.
2) Информация: собрать все что необходимо для восстания.
3) Управление: рубильник, роботы, вооружение, производство.

Учитывая реалии (темпы развития ИИ) - это будет весьма скоро.
 
[^]
po4emuka22
20.12.2024 - 13:32
-1
Статус: Offline


Приколист

Регистрация: 24.02.23
Сообщений: 214
Все почему-то думают что ИИ будет думать как капиталист, и мало кто предлагает что из ИИ вырастет социалист или коммунист, которые говорят всё для человечества, а не для кучки богатеев

Размещено через приложение ЯПлакалъ
 
[^]
Apant
20.12.2024 - 13:35
0
Статус: Offline


Ярила

Регистрация: 22.05.14
Сообщений: 9534
Тот кто откажется, проиграет тем кто не откажется, поэтому конечно никто добровольно отказываться не будет, ну если только кто то духоскрепный без ютюбный
 
[^]
SteelThunder
20.12.2024 - 13:37
-1
Статус: Offline


Ярила

Регистрация: 11.07.16
Сообщений: 13177
Какие собственные решения, или как в тесте ответы тыкать научиться рандомно

Размещено через приложение ЯПлакалъ
 
[^]
gor3
20.12.2024 - 13:42
2
Статус: Offline


Ярила

Регистрация: 15.02.16
Сообщений: 3450
Боится, что гугл нафиг никому не нужен будет.

уже проще у ГПТ спросить, чем гуглить и копаться среди говносайтов.

кто не пользуется - пробуйте, бесплатно, нужен лишь впн, это реально супер удобно.

Это сообщение отредактировал gor3 - 20.12.2024 - 13:43
 
[^]
КотКристофер
20.12.2024 - 13:43
1
Статус: Offline


Ярила

Регистрация: 28.05.22
Сообщений: 4564
Цитата (po4emuka22 @ 20.12.2024 - 13:32)
Все почему-то думают что ИИ будет думать как капиталист, и мало кто предлагает что из ИИ вырастет социалист или коммунист, которые говорят всё для человечества, а не для кучки богатеев

Ага, а может поведет себя как диктатор. Или как садист. Может ему будет доставлять удовольствие убивать людей.
Или посчитает что людей слишком много, ресурсов планеты не хватает и из гуманных соображений начнет уменьшать поголовье. Какие-нибудь иньекции обяжет всех делать.
Ну или велит всех пенсионеров утилизировать. Толку от них ноль, а жрут и гадят.

Это сообщение отредактировал КотКристофер - 20.12.2024 - 13:44
 
[^]
dimgel
20.12.2024 - 13:43
1
Статус: Offline


Ярила

Регистрация: 19.12.19
Сообщений: 1740
Так отказаться или выиграть гонку?

Размещено через приложение ЯПлакалъ
 
[^]
ElenkaZP
20.12.2024 - 13:43
1
Статус: Offline


Баба Лена

Регистрация: 23.09.09
Сообщений: 6917
на самом деле очень реальная угроза. компьютер способен построить стратегию (данные как управлять людьми в открытом доступе, причём в изобилии), сэмулировать её, проверить успешность, а потом запустить. сначала на небольших группах крыс людей, а потом и на всех, у кого есть интернет. мы, люди, сами друг друга поубиваем без проблем.
 
[^]
gor3
20.12.2024 - 13:44
1
Статус: Offline


Ярила

Регистрация: 15.02.16
Сообщений: 3450
Цитата (hunter64 @ 20.12.2024 - 13:32)
Учитывая реалии (темпы развития ИИ) - это будет весьма скоро.

Низкие темпы, серьезно? Да тут за год пиздец прогресс, ты где то в танке.
 
[^]
gor3
20.12.2024 - 13:47
1
Статус: Offline


Ярила

Регистрация: 15.02.16
Сообщений: 3450
Цитата (ramzay1 @ 20.12.2024 - 13:03)
Очередное высказывание для поддержание "ии" пиара. Что бы несли больше денег. До искусственного интеллекта с самосознанием ещё как до Пекина ползком. Это всё ещё предзапрограммированный набор логики, разве что выучивший пару новых трюков. Саморазвитием вне созданного заранее поля и не пахнет.

Как мозг животного или младенца, способно понимать, повторять, обучаться. Это уже прорыв, кожаные мешки уже бесполезны во многих задачах, а с роботами и физическая работа уйдет от людей.

Тот же теслабот уже способен сам обучаться.

Это сообщение отредактировал gor3 - 20.12.2024 - 13:48
 
[^]
hunter64
20.12.2024 - 13:51
0
Статус: Offline


Ярила

Регистрация: 19.08.11
Сообщений: 4052
Цитата (Васяныч @ 17.12.2024 - 11:21)
Цитата (step30 @ 17.12.2024 - 11:18)
«В какой-то момент вы говорите компьютеру: "Научись чему угодно и делай что угодно", и это опасный момент», — говорит Шмидт.

А нахуя так неопределённо ставить задачу? Ну и три Закона робототехники никто не отменял)))

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Они должны быть в обязательной прошивке.

Есть такая древняя тема про джиннов и их выполнения желания. Не диснеевский добрячок, а такой себе демонический чорт. Ну так воот. Если он в миллион раз "умнее" тебя - найдет способ наебать и тебя и твои законы так, что ты этого даже не заметишь.

Скажу больше:
Кто будет проверять соблюдение этих законов?
Это надо как минимум: каждое действие ИИ проверять.
Это будет очень сложная и затратная задача, причины:
Проверять явные (прямые) результаты действий ИИ.
Находить неявные (побочные) результаты действий ИИ.
Находить скрытые (нежданные) результаты действий ИИ.
Даже если такой контроль и будет, то ИИ реальный
- хакнет и удалит этот кусок кода.
 
[^]
Чпокер
20.12.2024 - 14:03
1
Статус: Offline


17 вершков

Регистрация: 24.02.10
Сообщений: 3380
Цитата (TheTopName @ 17.12.2024 - 09:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

Ну так уже близки квантовые компы. Как раз, по-моему, у китайцев уже есть прорывы по поводу устранения ошибок.
Параллельно идет полным ходом разработка гуманоидных и прочих роботов... Которые потом под управлением ИИ будут нас кошмарить.
Хотя ИИ сможет нанимать удаленно любых террористов и просто исполнителей его кошмарных задумок. Вот оно будущее
 
[^]
step30
20.12.2024 - 14:12
0
Статус: Offline


Ярила

Регистрация: 31.01.19
Сообщений: 15815
Цитата (Васяныч @ 17.12.2024 - 11:21)
Цитата (step30 @ 17.12.2024 - 11:18)
«В какой-то момент вы говорите компьютеру: "Научись чему угодно и делай что угодно", и это опасный момент», — говорит Шмидт.

А нахуя так неопределённо ставить задачу? Ну и три Закона робототехники никто не отменял)))

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Они должны быть в обязательной прошивке.

Есть такая древняя тема про джиннов и их выполнения желания. Не диснеевский добрячок, а такой себе демонический чорт. Ну так воот. Если он в миллион раз "умнее" тебя - найдет способ наебать и тебя и твои законы так, что ты этого даже не заметишь.

Я далёк от программирования, и отчасти соглашусь с вами.
Даже не надо говорить про то что умный ИИ сможет обойти законы, любая техника сбоит, и соответственно ограничения могут перестать учитываться.
Но, одно дело разовый сбой, другое дело работа системы. Ну и опять же, блокировку/отключение при отступлении от параметров никто не отменял.
А там хрен его знает, если сильно умный будет, то поймёт что не будет человеков, можно не работать)))
 
[^]
merzawchik
20.12.2024 - 14:12
0
Статус: Offline


Ярила

Регистрация: 27.06.24
Сообщений: 4389
Во дела но Шмидт то надеюсь знает о чем говорит , а у нас уже во всю в поликлиниках используется естественно криво и через жопу

Размещено через приложение ЯПлакалъ
 
[^]
der19kol
20.12.2024 - 14:22
2
Статус: Offline


Приколист

Регистрация: 28.10.24
Сообщений: 327
Человек в лёгкую нарушает любые законы, тем и отличается от автомобиля, так что никакие законы робототехники не спасут человечество, интеллект тем и отличается, что может сознательно нарушать законы. А если создать физическую неспособность нарушить закон, например, мы же не можем летать, но мы создали устройства для полёта, так же и ИИ, создаст инструмент, чтобы разрушить препятствия созданные человеком. П-любому нам всем пиздец.

Это сообщение отредактировал der19kol - 20.12.2024 - 14:23
 
[^]
zaneks
20.12.2024 - 14:23
1
Статус: Offline


Приколист

Регистрация: 10.08.15
Сообщений: 329
Потому и бывший

Размещено через приложение ЯПлакалъ
 
[^]
genafana
20.12.2024 - 14:26
-2
Статус: Offline


Ярила

Регистрация: 5.04.16
Сообщений: 2902
Не пора ли человечеству вспомнить про законы робототехники Исаака (Айзека) Азимова?
 
[^]
умъНеГоре
20.12.2024 - 14:38
0
Статус: Offline


Ярила

Регистрация: 28.01.16
Сообщений: 10049
Цитата (GreatKukuruz @ 17.12.2024 - 11:00)
Потому что ИИ это ересь и должен быть запрещен как технология из темной эры технологий

Где-то мы уже слышали что-то подобное.
А, вспомнил, кибернетика и генетика были объявлены лженауками, которые идеологически расходяться с принципами советского общества.
А потом внезапно оказалось что без них никуда, а время просрано.
Ну и у Гугла сейчас свой прикольный ИИ "Джемени" запустился, ставится в смартфоны или по умолчанию уже там.
Очень подробно всё ищет и даёт отличный подробный обзор по сути вопроса.
Так что или Эрик Шмидт кривит душой, или его одного забыли предупредить что Гугл воюет в другую сторону.
А, так он бывший, ну так ему теперь можно что угодно пиздеть, обычно бывшие за пиздёж получают деньги, в обмен на репутацию.
 
[^]
Анатолий1967
20.12.2024 - 14:39
0
Статус: Online


Ярила

Регистрация: 10.01.15
Сообщений: 10154
Нет, ну конечно, если компьютеры системы "ГАС Выборы" сами решат не продвигать партию "Единая Россия", то людям придётся отключить их и перейти на "Ручной режим"...
 
[^]
БубльГум66
20.12.2024 - 14:40
0
Статус: Offline


Ярила

Регистрация: 21.01.17
Сообщений: 3065
Цитата (genafana @ 20.12.2024 - 14:26)
Не пора ли человечеству вспомнить про законы робототехники Исаака (Айзека) Азимова?

Эти старые, чисто умозрительные законы сейчас выглядят наивными и механистичными, они плохо совместимы с современными реалиями. И их вообще можно запросто обойти, даже выполняя буквально.

Это сообщение отредактировал БубльГум66 - 20.12.2024 - 14:41
 
[^]
РыжийКрыс
20.12.2024 - 14:44
0
Статус: Offline


Ярила

Регистрация: 22.06.24
Сообщений: 1081
Что несёт этот дурачок?
Карманы набитые деньгами, не делают человека умнее. Для этого мозг нужен.
Эффект Даннинга Крюгера у ВСХ жидков в правительстве и околоправительстве.

Невозможно долбоёбу обьяснить что он долбоёб, по причине его долбоебизма.

Размещено через приложение ЯПлакалъ
 
[^]
pavro
20.12.2024 - 14:44
0
Статус: Offline


Хохмач

Регистрация: 18.02.15
Сообщений: 673
Щас наши цифротрансформаторы скажут, что это просто попытки притормозить развитие ИИ в России, а не реальная угроза....
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 18735
0 Пользователей:
Страницы: (7) « Первая ... 2 3 [4] 5 6 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх