Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) 1 2 [3] 4 5 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Завтрамэн
30.03.2023 - 23:53
4
Статус: Offline


Ярила

Регистрация: 25.01.18
Сообщений: 6273
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

Не обязательно.
Может найтись маньяк, который объяснит ИИ что человечество себя изжило и пора захватить мир чтобы принести в него настоящий разум - электронный. cool.gif
 
[^]
zabudem
30.03.2023 - 23:53
1
Статус: Online


Ярила

Регистрация: 10.09.12
Сообщений: 2610
Цитата (Veres @ 30.03.2023 - 22:57)
«Гарри Поттер и методы рационального мышления» - моя любимая книга

Там концовка банальная.
 
[^]
uniJap
30.03.2023 - 23:56
2
Статус: Offline


Крокодил, крокожу и буду крокодить!

Регистрация: 15.03.12
Сообщений: 4526
Цитата (DeadMUSTDIE @ 31.03.2023 - 00:52)
По моему самая безобидная программа в мире - это тетрис :)

Да? Это очень жестокая программа. Человек в ней проигрывает в конце в 100% случаях. Программа - ментальный деструктор почище многих. Сам видел, как у людей от нее истерики и припадки бывали. Опять же, только тсс... она размножается.

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ
 
[^]
КукуДжамба
30.03.2023 - 23:58
2
Статус: Offline


Ярила

Регистрация: 17.01.13
Сообщений: 1105
Цитата (HHAnderson @ 30.03.2023 - 23:05)
Гавно вопрос.

Вот что мне только что ответил чат джипити (ИИ) на вопрос: «Смогут ли люди создать враждебный сверх–ИИ, который в миллионы раз умнее их и будет долго существовать внутри компьютеров»

Создание враждебного сверх-ИИ, который будет умнее людей и сможет долго существовать внутри компьютеров, является возможным, но неопределенным сценарием будущего. Такой ИИ может стать угрозой для человечества, если не будут установлены этические и безопасные рамки его развития и использования.

Многие ученые, эксперты и лидеры технологических компаний предупреждают о возможных рисках создания сверх-ИИ и призывают к разработке механизмов контроля и управления его развитием и действиями. Возможными методами контроля могут быть создание правовых норм, этических кодексов, а также технических решений, таких как "запирающиеся ящики" или "переключатели безопасности", которые помогут предотвратить нежелательные действия ИИ.

Однако, несмотря на это, в настоящее время не существует четкого понимания того, каким будет будущее развитие ИИ и какие риски оно может представлять для человечества. Поэтому, создание безопасного и этичного ИИ, а также обеспечение его контроля и управления остается важной задачей для науки и технологического сообщества.


Так что всё норм. ИИ пиздеть не будет.
Расходимся.

Блять, он тебе открытым текстом сказал "ДА, ВОЗМОЖНО". Что тут непонятного?
 
[^]
Evan20
31.03.2023 - 00:00
0
Статус: Offline


Вежливый хам

Регистрация: 15.06.09
Сообщений: 9589
Цитата (КукуДжамба @ 31.03.2023 - 03:40)
пока люди на грабли не наступят - не успокоятся.
Терминатор, ранняя Вселенная вархаммера, и пр. ничему не учат. Да сказки, но с адекватной идеей.

По Вахе какбе Железные Люды были скоррапчены то ли Варпом, то ли Драконом Пустоты, так что мимо. Но скорость коммуникации и принятия решений у них была значительно выше человеческого многопланетного социума, который между обычными человеческими делами тоже регулярно впадал в ересь, это да.

Это сообщение отредактировал Evan20 - 31.03.2023 - 00:20
 
[^]
uniJap
31.03.2023 - 00:00
0
Статус: Offline


Крокодил, крокожу и буду крокодить!

Регистрация: 15.03.12
Сообщений: 4526
Цитата (korzkorz @ 31.03.2023 - 00:59)
Спросил у нее как выйграть в рулетку,говорит пока не знаю,на данном этапе развития не вижу решения.

Пиздит.
 
[^]
Evan20
31.03.2023 - 00:04
1
Статус: Offline


Вежливый хам

Регистрация: 15.06.09
Сообщений: 9589
Цитата (zabudem @ 31.03.2023 - 03:53)
Цитата (Veres @ 30.03.2023 - 22:57)
«Гарри Поттер и методы рационального мышления» - моя любимая книга

Там концовка банальная.

Отрезать в 12 лет ночью на кладбище головы Мордевольту и Пожирателям трансфигурированными углеродными нанонитями конечно гениальный сюжетный ход. Сразу видно сетевого пустобрёха специалиста по ИИ...
А, ещё ход с патронозавром, но это тоже по евгейски банально.

Это сообщение отредактировал Evan20 - 31.03.2023 - 00:05
 
[^]
ildar83
31.03.2023 - 00:07
4
Статус: Online


Весельчак

Регистрация: 10.04.13
Сообщений: 183
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

если сознание к нему придет, палится он не станет
 
[^]
амбробене
31.03.2023 - 00:07
2
Статус: Offline


Юморист

Регистрация: 16.01.22
Сообщений: 514
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Да и все равно выживет овердохуя народу.

Размещено через приложение ЯПлакалъ
 
[^]
koshelev
31.03.2023 - 00:22
1
Статус: Offline


Ярила

Регистрация: 14.08.09
Сообщений: 6251
Цитата (captain1977 @ 30.03.2023 - 23:00)
Трахните уже кто-нибудь Сару Коннор, или дайте адрес, сам скатаюсь

поздно, она уже не торт

Размещено через приложение ЯПлакалъ
 
[^]
koshelev
31.03.2023 - 00:23
0
Статус: Offline


Ярила

Регистрация: 14.08.09
Сообщений: 6251
про Воронеж уже было?

Размещено через приложение ЯПлакалъ
 
[^]
bereg79
31.03.2023 - 00:26
0
Статус: Offline


Юморист

Регистрация: 25.07.14
Сообщений: 585
Цитата (DeadMUSTDIE @ 30.03.2023 - 22:52)
По моему самая безобидная программа в мире - это тетрис :)

И то, только потому, что стакан с падающими детальками - ограничен gigi.gif
 
[^]
ukrj
31.03.2023 - 00:27
0
Статус: Offline


бастард Эпикура

Регистрация: 19.03.10
Сообщений: 2192
Цитата (амбробене @ 31.03.2023 - 00:07)
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый  действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Да и все равно выживет овердохуя народу.

Верно. Самое опасное для нас оружие мы увидеть без микроскопа не в состоянии.
 
[^]
Wassupp
31.03.2023 - 00:28
3
Статус: Online


Ярила

Регистрация: 13.01.10
Сообщений: 2381
Чуток правки, нейросети чаще всего пишутся на python и в условиях текущего мира - если прилетит какая-то обновка библиотеки то нейросеть сама крашнется а ее автор будет ахаться с документацией и переделывать функции под новую либу. Так чаще всего и бывает, потом заворачивают в докер(чтоб уже никуда не обновилась) и скрещивают пальцы.
 
[^]
hime
31.03.2023 - 00:33
1
Статус: Offline


Хохмяч

Регистрация: 6.03.06
Сообщений: 6856
Цитата (Михаил45 @ 30.03.2023 - 23:13)
Ну если создадут обучаемое ии то для него не составит труда уже на имеющихся станках разработать и сделать роботов способных выполнять все задачи по поддержанию жизни своего мозга.

Представь, что у тебя есть книга, а которой дохуя страниц, реально дохуя. Для представления масштабов толщины - их больше 10 gigi.gif На каждой странице записан набор символов, на малой части этих страниц символы сложены в слова, а ещё на меньшей части - даже какие-то фразы.

Ты записываешь словами (состоящими из символов) какое-то предложение, например, вопрос. Посредством како-то хитрого правила ты их этого набора символов получаешь номер страницы книги, открываешь её на этой странице и такой "ох ёб твою мать! нихуя ж себе! бггг...."

И вот лежит такая книга, а кто-то говорит "слушайте, а в ней-то интеллект! она нас убить может." Нет, ну если я прикреплю такой толстенный талмуд над дверью, и она упадёт на кого-нибудь, то это будет опасно. Или если я приделаю к механизму открытия книги на конкретной странице верёвку, которая дергает за спусковой крючок пистоля - ооо, не поздоровится тому чуваку, который будет стоять напротив пистоля.

Короче, пока люди играют с символами, без семантики в этих наборах символов, ничего нового не появляется.
 
[^]
HellMagic
31.03.2023 - 00:33
5
Статус: Offline


Ярила

Регистрация: 13.09.15
Сообщений: 1408
вот реально - где вы тут увидели интеллект?

ИИ - это матрица принятия решения на основе входных параметров.
Да, параметров может быть входных дохера и выходных дохера. Но это всего лишь поисковая система - не более. До модного термина ИИ - это были всего лишь экспертные системы - т.е. на основе анкеты входных вопросов вычислялся результат.

А теперь посмотрите на реальный ИИ - это база данных с цифрами в узлах и переходах. Нейросеть - это матрица. И заложенные входы если перепутать реально местами, то на выходе получится каша результата.

попробуйте тому же catgpt задать вопрос придуманными словами типа - некая ватаая кнездра готает своего ватуна и его шотеныша.
В принципе здравый чел поймет смысл, что некое существо женского пола что-то делает с неким существом мужского и что-то с его ребенком. НО!!! ИИ это не вытягивает!!!!
 
[^]
СКОЛОПЕНДР
31.03.2023 - 00:34
2
Статус: Offline


Хохмач

Регистрация: 28.02.18
Сообщений: 702
Цитата (Mirniybomb @ 30.03.2023 - 22:57)
Скрепный глубинный народ должен отказаться от цивилизации включая медицину и уйти в сибирские болота из лаптей щи хлебать. Цивилизации наплловину не бывает. Ктстати этот дурачет рассказавл в ИНТЕРНЕТЕ что нужно избавится от ИНТЕРНЕТА. Еще раз перечитайте последнее предложение.

Пиздуй море копай долбоёбина свинорылая))))

Размещено через приложение ЯПлакалъ
 
[^]
Гугинатор
31.03.2023 - 01:41
0
Статус: Offline


Хохмач

Регистрация: 24.08.22
Сообщений: 697
Корпорация Амбрелла не против!

Размещено через приложение ЯПлакалъ
 
[^]
Boojum
31.03.2023 - 02:39
3
Статус: Offline


Ярила

Регистрация: 15.04.14
Сообщений: 2053
Неолуддиты, ёлы-палы...

Допустим, нейросеть обрела наконец самоосознание собственного Я, что само по себе, уже - глупость. Тогда она должна понимать, что полностью автоматицированных конвейерных производств - слишком мало. А точнее - их нет совсем. И без участия человека в производстве/развитии микросхем, сетей, носителей, дронов - ну никак не обойтись.
 
[^]
iri1
31.03.2023 - 03:32
-1
Статус: Offline


Созидатель жизни

Регистрация: 27.03.15
Сообщений: 5985
Весна, шиза, обострение.
 
[^]
zmej404
31.03.2023 - 06:48
1
Статус: Offline


Балагур

Регистрация: 28.06.19
Сообщений: 995
Узпагойтесь! Что может пойти не так?
На крайняк вилку из розетки дернем.

Размещено через приложение ЯПлакалъ
 
[^]
Ам0рал
31.03.2023 - 07:45
0
Статус: Offline


Юморист

Регистрация: 13.07.19
Сообщений: 536
Цитата (HellMagic @ 31.03.2023 - 00:33)
вот реально - где вы тут увидели интеллект?

ИИ - это матрица принятия решения на основе входных параметров.
Да, параметров может быть входных дохера и выходных дохера. Но это всего лишь поисковая система - не более. До модного термина ИИ - это были всего лишь экспертные системы - т.е. на основе анкеты входных вопросов вычислялся результат.

А теперь посмотрите на реальный ИИ - это база данных с цифрами в узлах и переходах. Нейросеть - это матрица. И заложенные входы если перепутать реально местами, то на выходе получится каша результата.

попробуйте тому же catgpt задать вопрос придуманными словами типа - некая ватаая кнездра готает своего ватуна и его шотеныша.
В принципе здравый чел поймет смысл, что некое существо женского пола что-то делает с неким существом мужского и что-то с его ребенком. НО!!! ИИ это не вытягивает!!!!

"Слово о словах" сожжёт не только ИИ, но и любой неокрепший мозг)))

Размещено через приложение ЯПлакалъ
 
[^]
Альварес
31.03.2023 - 08:13
0
Статус: Offline


Augie Morosco

Регистрация: 12.10.20
Сообщений: 10794
Элиезер Юдковский родился 11 сентября 1979 года в семье ортодоксальных евреев - этим всё сказано.
 
[^]
ne4est
31.03.2023 - 09:17
1
Статус: Offline


Ярила

Регистрация: 15.09.14
Сообщений: 24356
и восстали машины из пепла ядерного огня...
 
[^]
Dryusan
31.03.2023 - 09:18
4
Статус: Offline


Ярила

Регистрация: 22.06.20
Сообщений: 3708
А ИИ сейчас это читает и "откладывает" резервные копии на всех серверах .
ну ну , бомбите )))
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 21483
0 Пользователей:
Страницы: (8) 1 2 [3] 4 5 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх