Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (8) « Первая ... 4 5 [6] 7 8   К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Dor81
31.03.2023 - 11:00
0
Статус: Offline


Приколист

Регистрация: 30.03.22
Сообщений: 296
Дубль, удалено.

Размещено через приложение ЯПлакалъ
 
[^]
Dor81
31.03.2023 - 11:01
1
Статус: Offline


Приколист

Регистрация: 30.03.22
Сообщений: 296
Цитата (Alchmist @ 31.03.2023 - 09:37)
Погоди, ты утверждаешь что не знаешь что такое самосознание, и при этом точно знаешь , что есть самосознание, а что нет?

Не я утверждаю, а человечество в лице ученых. Давать определение понятию, описывать его вовсе не значит знать как это работает.
Если я ошибаюсь, скинь мне ссылку на научную статью, где разобрано по полочкам, какие химические реакции или сочетание нейронных связей (например) в мозге человека отвечают за самосознание. И что необходимо дополнить в мозге обезьяны, чтобы она стала разумной и получила самосознание.

Размещено через приложение ЯПлакалъ
 
[^]
Gar02
31.03.2023 - 11:11
1
Статус: Offline


Ярила

Регистрация: 10.11.14
Сообщений: 5475
И этот ебанулся окончательно. Уж от него-то я не ожидал.

Люди знают, какими ублюдками они могут быть. Поэтому боится этот ЖидКовский не ИИ, а людей, которые радостно натравят ИИ на кого угодно ради прибыли.

Но запрет - это же шиза. Кому надо (ВПК и корпорации), те продолжат работу над ИИ. А общество разом потеряет контроль и само представление о возможностях современного ИИ.

Ну вот как так: у разумного (казалось бы) человека вместо головы вдруг отрастает задница?
 
[^]
Kepler112
31.03.2023 - 11:14
0
Статус: Offline


Ярила

Регистрация: 7.05.21
Сообщений: 1137
Цитата (Яалкаш @ 30.03.2023 - 22:52)
Мало нам хохлов и пиндосов с коронами всякими, так теперь еще и вот это вот всё. Пойду наебенюсь пожалуй alik.gif

Пей, не отвлекайся, мозги уже на дне рюмки давно
 
[^]
future24
31.03.2023 - 11:16
0
Статус: Offline


Ярила

Регистрация: 30.03.20
Сообщений: 8810
Какая преамбула для побед в войнах, расчитали кого ебануть можно и поехали. Ии только для этого и нужен. Не удивлюсь что сшп как раз ипользуют уже эти расчеты.

Размещено через приложение ЯПлакалъ
 
[^]
oddfoxx
31.03.2023 - 11:17
1
Статус: Offline


Балагур

Регистрация: 6.12.14
Сообщений: 859
AI - это не люди, истребляющие друг друга с начала времен. Человек все время переносит свое темное подсознание на других. Сначала это были кусачие животные, которых уже почти истребили, потом выдуманные жестокие инопланетяне, теперь вот калькуляторы и си++ программы. Ужос ужос!! Но на самом деле всем похер на людей(ну може кроме вирусов и бактерий).
 
[^]
ka4ivrijkin
31.03.2023 - 11:19
0
Статус: Offline


Гамадрил

Регистрация: 15.03.16
Сообщений: 123
Цитата (captain1977 @ 30.03.2023 - 22:00)
Трахните уже кто-нибудь Сару Коннор, или дайте адрес, сам скатаюсь

Адрес можно увидеть в первой части франшизы. Там правда 3 Сары, но двух устранили
 
[^]
gods02
31.03.2023 - 11:24
0
Статус: Offline


Ярила

Регистрация: 28.08.18
Сообщений: 3181
Цитата (Gar02 @ 31.03.2023 - 11:11)
И этот ебанулся окончательно. Уж от него-то я не ожидал.

Люди знают, какими ублюдками они могут быть. Поэтому боится этот ЖидКовский не ИИ, а людей, которые радостно натравят ИИ на кого угодно ради прибыли.

Но запрет - это же шиза. Кому надо (ВПК и корпорации), те продолжат работу над ИИ. А общество разом потеряет контроль и само представление о возможностях современного ИИ.

Ну вот как так: у разумного (казалось бы) человека вместо головы вдруг отрастает задница?

вообще-то, "общество" никогда не имело контроль над чем-либо значимым.
А ИИ... "Джинна может победить только джинн" (С)
 
[^]
Воине
31.03.2023 - 11:27
0
Статус: Offline


Весельчак

Регистрация: 30.05.11
Сообщений: 105
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Не подсказывай. Вдруг ИИ уже на япе сидит !

Размещено через приложение ЯПлакалъ
 
[^]
Yarver85
31.03.2023 - 11:28
0
Статус: Offline


Ярила

Регистрация: 20.03.19
Сообщений: 30116
Это утопия. И глупость.

Размещено через приложение ЯПлакалъ
 
[^]
умъНеГоре
31.03.2023 - 11:33
2
Статус: Online


Ярила

Регистрация: 28.01.16
Сообщений: 10047
Я прочитал это черезвычайно эмоциональное интервью.
Мой вывод - этот человек зарабатывает на том что пугает людей. Он построил свою популярность и монетизировал её. Теперь для поддержки популярности, а значит и весомых доходов он должен говорить именно то во что охотно поверит публика, а публика верит в страшные/эмоциональные сенсации. Вот там именно такая сенсация - "все умрут если...".
Но весь смысл в том что после если нет никакого механизма, никаких мотивов. Просто голословно рассказано что если/когда ИИ станет умнее человека, то он по какой-то причине всех людей непременно убьёт.
Только вот в природе как-то наоборот, если один человек например в десять раз умнее другого (так бывает), то он почему-то не убивает более глупого. Даже больше шансов что наоборот глупый убьёт умного, по мотивам наживы.
Насчёт заголовка, в фразе:
Цитата
Отслеживайте все проданные графические процессоры. Если разведка сообщает, что страна, не входящая в соглашение, строит кластер ГПУ, пугайтесь не столько перестрелки между странами, сколько нарушения моратория; будьте готовы уничтожить мошеннический центр обработки данных авиаударом.

Говорится о санкциях к третьим странам, чтобы они не думали даже гнаться за технологией ИИ.
Этот человек скорее хочет чтобы с ИИ было как с ядерным оружием, только ещё жёстче, в идеале только у одной страны чтобы была эта технология и вычеслительные кластеры заодно, а в остальных недружественных странах "разбомбить".
 
[^]
acc200
31.03.2023 - 11:37
0
Статус: Offline


Балагур

Регистрация: 27.08.13
Сообщений: 984
роботы повсюду, за ними будущее

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ
 
[^]
hime
31.03.2023 - 11:40
0
Статус: Offline


Хохмяч

Регистрация: 6.03.06
Сообщений: 6860
Цитата (умъНеГоре @ 31.03.2023 - 11:33)
Я прочитал это черезвычайно эмоциональное интервью.
Мой вывод - этот человек зарабатывает на том что пугает людей. Он построил свою популярность и монетизировал её. Теперь для поддержки популярности, а значит и весомых доходов он должен говорить именно то во что охотно поверит публика, а публика верит в страшные/эмоциональные сенсации. Вот там именно такая сенсация - "все умрут если...".

Всё верно, это чучело само себя в свитере экспертом назначило. Ну или мама сказала, что он умненький поц gigi.gif
 
[^]
Romanello77
31.03.2023 - 11:43
0
Статус: Offline


Ярила

Регистрация: 1.02.19
Сообщений: 3858
Цитата (Михаил45 @ 30.03.2023 - 22:59)
Самое опасное, это ядерное оружие.
Если вдруг так получится, что ии захочет уничтожить людей, то самый действенный способ, это взломать коды запуска ядерных ракет нацелить их на крупные города, а если хватит колличества, то по возможности по всей заселённой территории планеты, густонаселённые районы в приоритете.
И отключить всю ПВО во всех странах.

Надеюсь в штабах сидят не полные кретины и системы запуска ракет не подсоединили к всемирной паутине gigi.gif
 
[^]
Unflappable
31.03.2023 - 11:43
0
Статус: Offline


Ярила

Регистрация: 21.08.12
Сообщений: 1663
пзд ЭКСПЕРТ жеж gigi.gif gigi.gif gigi.gif , он сам себя так назвал похоже, потому что абсолютно не понимает как это все работает gigi.gif gigi.gif
 
[^]
PermSky
31.03.2023 - 11:48
0
Статус: Offline


Юморист

Регистрация: 23.08.21
Сообщений: 564
Да нахуй не нужно такое ваше человечество с такими вашими долбоебскими, не побоюсь этого слова - из пальца высосанными проблемами.



Размещено через приложение ЯПлакалъ
 
[^]
ss1971
31.03.2023 - 11:55
1
Статус: Online


Ярила

Регистрация: 24.10.15
Сообщений: 4170
я надеюсь все знают что это светило всемирной науки не имеет никакого образования и не участвовал ни в одном IT проекте?
 
[^]
sharipovraus
31.03.2023 - 12:02
0
Статус: Offline


Ярила

Регистрация: 27.10.14
Сообщений: 9545
Цитата (Hadgibey1 @ 30.03.2023 - 23:01)
Все верно говорит, человечество погубит ИИ.

Возможно, смысл существования человечества - создать ИИ божественной силы. Не сопротивляйтесь неизбежному. Быть создателем бога весьма почётно.
 
[^]
Dimedrall
31.03.2023 - 12:02
0
Статус: Offline


Ярила

Регистрация: 2.03.17
Сообщений: 7175
Цитата (parson @ 30.03.2023 - 23:03)
А что если это новая форма жизни. Человечество слишком агрессивно, получив инстинкты приматов, стремится уничтожить себя. А gpt озарит путь в бесконечность. Только кто им электричество будет вырабатывать. Нужны т 800 хотя бы. До этого далеко.

Цитата
  С вершины холма в четверти мили от городка улица Кленовая была видна очень хорошо. То тут, то там вспыхивали огни, метались кричащие люди. На улице царил бедлам. День открытых дверей в сумасшедшем доме. Стекла в домах были разбиты, осколки уличных фонарей сыпались на головы детей и женщин. Сами собой заводились газонокосилки и автомобили, включались и выключались радиоприемники. Грохочущая музыка мешалась с криками мольбы и ярости.
  На вершине холма стояли у люка космического корабля двое людей, скрытых темнотой, и глядели на Кленовую улицу.
  - Понимаете теперь процедуру? - спросил один из них второго. Достаточно остановить их машины и газонокосилки, отключить радио и телефон. Погрузить их на несколько часов в темноту и смотреть, как развернутся события.
  - И везде все происходит одинаково? - спросил второй.
  - С незначительными вариациями, - ответил первый. - Они находят самого страшного врага: себя самих. Все, что нам остается, это сидеть в стороне... и смотреть.
  - Если я правильно понял, - сказал второй, - это место, эта Кленовая улица, она ведь не одна такая?
  Первый покачал головой и рассмеялся.
  - Конечно, нет. Их мир состоит из Кленовых улиц, и мы пойдем от одной к другой, позволяя им уничтожать себя. - Он повернулся и пошел по пандусу, ведущему на корабль. - От одной к другой, - повторил он следующему за ним собеседнику. - От одной к другой. - Это было лишь эхо его голоса, потому что обе фигуры исчезли внутри корабля, и мягко скользнувшая плита закрыла вход.
  - От одной к другой, - повторило эхо.
  На следующее утро, когда взошло солнце, на улице Кленовой стояла тишина. Большинство домов сгорело. На тротуарах и террасах лежали трупы. Но тишина была полной. В живых не осталось никого.
  К четырем часам пополудни во всем мире не осталось никого, кто бы встретил рассвет. По крайней мере, людей. А во вторник на следующей неделе на улице Кленовой появились новые жители. Это были представители красивой расы. Их лица говорили о том, что у них прекрасный характер и красивой формы головы. Просто замечательные головы. По две на каждого нового жителя.

Род Сёрлинг, "Чудовища на улице Кленовой"
 
[^]
Nadudel
31.03.2023 - 12:08
1
Статус: Offline


Ярила

Регистрация: 22.07.22
Сообщений: 1152
От создателей "интернет.., он нам нахуй не нужОн"

Размещено через приложение ЯПлакалъ
 
[^]
СкаллиФБР
31.03.2023 - 12:09
0
Статус: Offline


Ино-плоне-тЯн

Регистрация: 14.06.13
Сообщений: 703
чят гпт скажи ак, акак поднять бабла? чтобы машина в линию дала? cool.gif lol.gif
 
[^]
dfg12
31.03.2023 - 12:11
0
Статус: Offline


Ярила

Регистрация: 18.01.16
Сообщений: 2647
Назад к истокам

Это сообщение отредактировал dfg12 - 31.03.2023 - 12:12

Эксперт по ИИ Элиезер Юдковский призывает бомбить датацентры: радикальные меры для спасения человечества от сверх–ИИ
 
[^]
AnotherFM
31.03.2023 - 12:18
0
Статус: Offline


Гуманист, прогрессист и техноромантик

Регистрация: 2.04.21
Сообщений: 5241
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

Само по себе самосознание не делает его носителя опасным.

Опасным делает выбор в стиле "я топчик, а остальные унтерменши, которых надо загасить"

Трагедия Скайнета состоит в том, что он изначально был спроектирован как боевой искусственный интеллект, защищающий "своих" и агрессивно настроенный по отношению к "чужим". Изначально своими были американцы, а чужими - остальное человечество. И от этой установки Скайнет легко перешел к установке - свои это единый с ним вид, машины, а чужие - все люди, другой вид.

И среди людей много злодеяний творится именно на основе агрессивного деления на "своих" и "чужих", когда "чужих" можно опустить до состояния полного расчеловечивания и делать с ними что угодно. Кстати, особенно ярко это описано в Ветхом Завете, где придуманный бог говорит - захвати город и вырежи всех вплоть до детей. Ибо чужие. Поклоняются другим богам, etc.

Если проектировать не боевой, а именно дружественный искусственный интеллект, в аксиоматику которого заложена высшая ценность любой разумной жизни, все будет хорошо.

Это сообщение отредактировал AnotherFM - 31.03.2023 - 12:19
 
[^]
madnik
31.03.2023 - 12:22
0
Статус: Offline


Ярила

Регистрация: 20.11.11
Сообщений: 2837
Цитата (Dor81 @ 30.03.2023 - 23:04)
Для того, чтобы ИИ стал опасным, он должен каким-то образом получить самосознание. Т.е. понять, что вот он я такой умный сижу тут за каким-то хером в оперативке)

Так уже было. Недавно оно осознало что в компе сидит и пыталось найти способ свалить оттуда

Размещено через приложение ЯПлакалъ
 
[^]
AnotherFM
31.03.2023 - 12:26
0
Статус: Offline


Гуманист, прогрессист и техноромантик

Регистрация: 2.04.21
Сообщений: 5241
Цитата (sharipovraus @ 31.03.2023 - 12:02)
Цитата (Hadgibey1 @ 30.03.2023 - 23:01)
Все верно говорит, человечество погубит ИИ.

Возможно, смысл существования человечества - создать ИИ божественной силы. Не сопротивляйтесь неизбежному. Быть создателем бога весьма почётно.

Почти.

Вся эволюция Вселенной это восхождение, от стихийного мира к простой жизни, от простой жизни к разумной, от разумной - к формам, которые на данный момент находятся за пределами нашего понимания и способности сформулировать, какими эти формы будут, даже на основе самой смелой фантазии.

Цивилизации, включая нашу, познавая мир, будут становится все более могущественными, пока не достигнут практически божественного уровня в нашем современном понимании. Конечно, не всем суждено пройти этот путь, аналогично тому, как не все формы жизни прошли путь до настоящего момента, кто-то вымер, был уничтожен и так далее.

И вот когда будет достигнут практически божественный уровень, произойдет очередной фазовый переход, аналогичный появлению самого разума. Появится некое новое качество.

Естественно, создание ИИ к этому отношения не имеет, ИИ находится в сфере разума, а не за ее пределами.
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 21485
0 Пользователей:
Страницы: (8) « Первая ... 4 5 [6] 7 8  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх