Кажется, техномиллиардеры готовятся к концу света. Стоит ли нам всем беспокоиться?

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (4) [1] 2 3 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
pticeed
12.10.2025 - 18:28
Статус: Online


Созерцатель

Регистрация: 6.11.17
Сообщений: 11491
40
Еще в 2014 году Марк Цукерберг начал работу над Koolau Ranch — обширным жилым комплексом площадью 1400 акров на гавайском острове Кауаи.

Согласно журналу Wired, новый дом включает в себя убежище с собственными источниками энергии и запасами продовольствия, а строители, работающие на объекте, обязались не разглашать информацию об этом.

Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.

Когда в прошлом году Цукурберга спросили, строит ли он бункер на случай конца света — основатель Facebook ответил категорическим «нет». По его словам, подземное пространство — «просто небольшое убежище, похожее на подвал».

Но это не остановило спекуляции — как и его решение купить 11 объектов недвижимости в районе Кресент-Парк в Калифорнии, под которыми, по-видимому, находится подземное пространство площадью в 650 квадратных метров.

В разрешении на строительство говорится, что Цукерберг оборудует подвалы, но, по данным New York Times, некоторые из его соседей называют сооружение бункером. Или пещерой миллиардера.

Также есть спекуляции, что и некоторые другие лидеры технологической отрасли заняты скупкой участков земли с подземными помещениями для преобразования в роскошные бункеры.

Рейд Хоффман, соучредитель LinkedIn, говорил о «страховке от апокалипсиса». По его словам, около половины сверхбогатых людей имеют такую страховку, а популярное место для приобретения таких домов — Новая Зеландия.

Могут ли эти люди действительно готовиться к войне, последствиям изменения климата или какому-то другому катастрофическому событию, о котором мы еще не знаем?

В последние несколько лет развитие искусственного интеллекта только пополнило список потенциальных экзистенциальных проблем. Многие глубоко обеспокоены стремительным темпом его развития.

Илья Суцкевер, главный научный сотрудник и соучредитель Open AI, по сообщениям, является одним из них.

К середине 2023 года, когда компания из Сан-Франциско выпустила ChatGPT — чат-бота, который сейчас используют сотни миллионов людей по всему миру, — и быстро работала над обновлениями, Суцкевер все больше убеждался, что компьютерные ученые находятся на грани разработки общего искусственного интеллекта (ОИИ) — момента, когда машины сравняются с человеческим интеллектом.

В книге журналистки Карен Хао рассказывается, что на одном из совещаний Суцкевер предложил коллегам выкопать подземное убежище для ведущих ученых компании до того, как такая мощная технология будет выпущена в мир.

«Мы обязательно построим бункер, прежде чем выпустим ОИИ», — сказал Суцкевер, хотя неясно, кого он имел в виду под словом «мы».

Это проливает свет на странный факт: многие ведущие компьютерные ученые и технологические лидеры, некоторые из которых усердно работают над разработкой чрезвычайно интеллектуальной формы ИИ, также, похоже, глубоко опасаются того, что к чему это однажды может привести.

Так когда же именно — если вообще когда-нибудь — появится ОИИ? И действительно ли он может оказаться настолько революционной технололгией, что обычные люди начнут его бояться?

«Раньше, чем мы думаем»

Лидеры технологической отрасли заявляют, что появление ОИИ не за горами. В декабре 2024 года глава OpenAI Сэм Альтман заявил, что это произойдет «раньше, чем думает большинство людей в мире».

Демис Хассабис, соучредитель DeepMind, предсказал, что это произойдет в ближайшие пять-десять лет, а основатель Anthropic Дарио Амодей написал в прошлом году, что «мощный ИИ» может появиться уже в 2026 году.

Другие относятся к этому скептически. «Они постоянно меняют правила игры, — говорит Венди Холл, профессор информатики Университета Саутгемптона. — Все зависит от того, с кем вы разговариваете».

«Научное сообщество утверждает, что технология ИИ потрясающая, — добавляет она. — Но она далека от человеческого интеллекта».

Сначала необходимо будет совершить ряд «фундаментальных прорывов», соглашается Бабак Ходжат, технический директор технологической компании Cognizant.

И вряд ли это произойдет в один момент. Скорее, ИИ — это быстро развивающаяся технология, которая находится в стадии становления, и многие компании по всему миру стремятся разработать свои собственные версии этой технологии.

Но одна из причин, по которым эта идея волнует некоторых в Кремниевой долине, заключается в том, что она считается предшественником чего-то еще более продвинутого: искусственного сверхинтеллекта — технологии, превосходящей человеческий интеллект.

Еще в 1958 году концепция «сингулярности» была посмертно приписана венгерскому математику Джону фон Нейману. Она описывает момент, когда компьютерный интеллект превзойдет человеческое понимание.

В книге «Генезис 2024», написанной Эриком Шмидтом, Крейгом Манди и покойным Генри Киссинджером, исследуется идея сверхмощной технологии, которая становится настолько эффективной в принятии решений и руководстве, что мы в конечном итоге полностью передаем ей контроль.

По мнению авторов, вопрос не в том, будет ли это, а в том, когда это произойдет.

Деньги для всех без необходимости работать?

Сторонники новых технологий нейросетей с энтузиазмом рассказывают об их преимуществах. Они утверждают, что сверхумные ИИ помогут найти новые лекарства от смертельных болезней, решить проблему изменения климата и изобрести неиссякаемый источник чистой энергии.

Илон Маск даже заявил, что сверхинтеллектуальный ИИ может положить начало эре «всеобщего высокого дохода».

Недавно он поддержал идею о том, что ИИ станет настолько дешевым и распространенным, что практически каждый захочет иметь «своего личного R2-D2 и C-3PO» (ссылаясь на дроидов из «Звездных войн»).

«У каждого будет лучшее медицинское обслуживание, еда, транспорт и все остальное. Устойчивое изобилие», — восторженно заявил он.

Конечно, есть и страшная сторона. Может ли эта технология быть захвачена террористами и использована в качестве оружия, или что, если она сама решит, что человечество является причиной мировых проблем, и уничтожит нас?

«Если что-то умнее нас, то мы должны держать это под контролем, — предупредил Тим Бернерс-Ли, создатель Всемирной паутины. — Мы должны иметь возможность это отключить».

И государства уже принимают защитные меры. В США, где базируются многие ведущие компании в области ИИ, президент Байден в 2023 году подписал указ, обязывающий некоторые фирмы делиться результатами тестов безопасности с федеральным правительством. Но президент Трамп впоследствии отменил часть этого указа, назвав его «барьером» для инноваций.

В Великобритании два года назад был создан Институт безопасности ИИ — финансируемый государством исследовательский орган — для лучшего понимания рисков, связанных с передовым ИИ.

Но есть сверхбогатые люди, у которых есть свои планы «страховки от апокалипсиса».

«Когда кто-то говорит, что он „покупает дом в Новой Зеландии“, — это своего рода намек, мол, „все понятно, дальше можно не объяснять“», — ранее говорил сооснователь LinkedIn Рид Хоффман.

То же самое, по всей видимости, касается и бункеров. Но тут есть одна сугубо человеческая слабость.

Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный «бункер». Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и заня

Это все паника?

Нил Лоуренс — профессор машинного обучения в Кембриджском университете. И, по его мнению, вся эта дискуссия сама по себе не имеет смысла.

«Понятие общего искусственного интеллекта столь же абсурдно, как и понятие «искусственного общего транспортного средства», — утверждает он.

«Правильный транспорт зависит от контекста. Я летел в Кению на Airbus A350, каждый день езжу на машине в университет, хожу пешком в кафетерий... Нет такого транспортного средства, которое могло бы делать все это».

Для него разговоры об ОИИ — это отвлекающий маневр.

«Технологии, которые мы [уже] создали, впервые позволяют обычным людям напрямую общаться с машиной и потенциально заставлять ее делать то, что они хотят. Это абсолютно необыкновенно... и совершенно революционно».

«Большая проблема в том, что мы настолько увлечены рассказами крупных технологических компаний об ОИИ, что упускаем из виду способы, с помощью которых мы можем улучшить жизнь людей».

Современные инструменты искусственного интеллекта обучаются на огромных массивах данных и хорошо распознают закономерности: будь то признаки опухоли на снимках или слово, которое с наибольшей вероятностью следует за другим в определенной последовательности. Но они не «чувствуют», какими бы убедительными ни казались их ответы.

«Есть некоторые „хитрости“, которые позволяют большой языковой модели (основа чат-ботов ИИ) вести себя так, как будто она имеет память и учится, но они неудовлетворительны и значительно уступают человеческим способностям», — говорит Бабак Ходжат.

Винс Линч, генеральный директор калифорнийской компании IV.AI, также с осторожностью относится к преувеличенным заявлениям о сверхинтеллекте.

«Это отличный маркетинговый ход, — говорит он. — Если ваша компания создает самое умное из когда-либо существовавших устройств, люди будут готовы платить вам деньги».

Он добавляет: «Это не дело двух лет. Для этого требуется огромная вычислительная мощность, огромный творческий потенциал людей, огромное количество проб и ошибок».

Интеллект без сознания

В некотором смысле ИИ уже превзошел человеческий мозг. Генеративный инструмент ИИ может в одну минуту быть экспертом по средневековой истории, а в следующую — решать сложные математические уравнения.

Некоторые технологические компании заявляют, что не всегда знают, почему их продукты реагируют именно так, а не иначе. Meta утверждает, что есть некоторые признаки того, что ее системы ИИ совершенствуются.

Однако в конечном итоге, независимо от того, насколько умными становятся машины, с биологической точки зрения человеческий мозг по-прежнему выигрывает. Он имеет около 86 миллиардов нейронов и 600 триллионов синапсов, что намного больше, чем у искусственных аналогов.

Мозг также не нуждается в паузах между взаимодействиями и постоянно адаптируется к новой информации.

«Если вы скажете человеку, что на экзопланете обнаружена жизнь, он сразу это усвоит, и это повлияет на его мировоззрение. А вот для LLM [большой языковой модели] это знание будет существовать только до тех пор, пока вы продолжаете повторять это как факт», — говорит Ходжат. — LLM также не обладают метапознанием, что означает, что они не совсем понимают, что они знают. Люди, похоже, обладают способностью к самоанализу, которую иногда называют сознанием, которая позволяет им понимать, что они знают».

https://www.bbc.com/russian/articles/cy4j91w9gx4o

Размещено через приложение ЯПлакалъ

Кажется, техномиллиардеры готовятся к концу света. Стоит ли нам всем беспокоиться?
 
[^]
Anderlecht
12.10.2025 - 18:29
10
Статус: Online


Дракон-Комодо

Регистрация: 9.07.13
Сообщений: 6078
А есть смысл?
 
[^]
хондовод
12.10.2025 - 18:30
12
Статус: Offline


А поговорить!

Регистрация: 14.09.15
Сообщений: 11201
У него дискотеки в скале нет, хули тут обсуждать?
 
[^]
Alder
12.10.2025 - 18:32
9
Статус: Offline


CD_RippeR

Регистрация: 26.05.14
Сообщений: 632
Нам пиздец, Люда, нам пиздец ©
 
[^]
Свояк
12.10.2025 - 18:32
13
Статус: Offline


Ярила

Регистрация: 19.03.14
Сообщений: 14439
Цитата
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.

Почти двухметровая стена - как бы и не стена вовсе. Даже не от пионеров, а только от октябрят закроет.

Всё остальное уже серьезнее.
 
[^]
Clizma
12.10.2025 - 18:32
17
Статус: Offline


Вектор движения.

Регистрация: 31.08.11
Сообщений: 5762
Одни сдохнут быстро.Другие.....все равно сдохнут.
 
[^]
qwed05
12.10.2025 - 18:32
6
Статус: Offline


Юморист

Регистрация: 15.03.07
Сообщений: 499
Ох эти заголовки. Почти двух метровая стена.

Размещено через приложение ЯПлакалъ
 
[^]
Гuнekoлoг
12.10.2025 - 18:34
7
Статус: Offline


Медицинская спелеология

Регистрация: 13.12.22
Сообщений: 1250
Сказки для дураков.
 
[^]
muzhig
12.10.2025 - 18:35
9
Статус: Offline


Ярила

Регистрация: 25.09.10
Сообщений: 1163
остров на гавайях такое себе укрытие
 
[^]
ВотВоМхуЕнот
12.10.2025 - 18:35
6
Статус: Offline


Ярила

Регистрация: 19.08.24
Сообщений: 1263
Цитата (pticeed @ 12.10.2025 - 18:28)
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.

Потрясающе высокая стена. Наверное, еще из сетки?
 
[^]
24Регион124
12.10.2025 - 18:35
10
Статус: Offline


Ярила

Регистрация: 24.08.17
Сообщений: 1950
Цитата (qwed05 @ 12.10.2025 - 22:32)
Ох эти заголовки. Почти двух метровая стена.

У нас такими стенами палисадники огораживают.
 
[^]
PriCOOLisT
12.10.2025 - 18:35
2
Статус: Offline


Приколист

Регистрация: 29.08.22
Сообщений: 389
Раньше или в 120 лет все равно подохнем.
Увы. Дольше еще никто не прожил.
 
[^]
raman007
12.10.2025 - 18:35
9
Статус: Online


Хохмач

Регистрация: 29.01.15
Сообщений: 644
Если денег сколько, что не знаешь куда потратить, то можно и бункер выкопать!
Даже если не понадобится-все равно деньги на тот свет не утащить))

Размещено через приложение ЯПлакалъ
 
[^]
Глюон
12.10.2025 - 18:35
3
Статус: Offline


Шутник

Регистрация: 9.08.25
Сообщений: 79
Гаваи так то достойны сахарка по безопасному размещению бункера😂

Размещено через приложение ЯПлакалъ
 
[^]
LampoV
12.10.2025 - 18:36
3
Статус: Online


Трепонем

Регистрация: 30.08.24
Сообщений: 486
Предлагаю вторую ракету по Цукербергу, а то ишь ты хитрозадый.
 
[^]
etakila
12.10.2025 - 18:36
1
Статус: Online


Ярила

Регистрация: 19.07.23
Сообщений: 4993
Начал за здравие заеончил за упокой,цукербэнк и все миллиардеры себе подвал построят придем с народом и нахуй их на улицу выкинем,пусть строят.

Размещено через приложение ЯПлакалъ
 
[^]
z1305
12.10.2025 - 18:37
1
Статус: Offline


Ярила

Регистрация: 11.04.11
Сообщений: 9555
пока, используя ИИ для прикладных задач, вижу, что до опасности ещё всё же время есть, довольно серьезно тупит, забывает детали всех предыдущих веток разговоров, к самостоятельным решениям готов мало
может потому, что использую открытые модели, а у разработчиков есть более серьезные вещи
 
[^]
Паласатое
12.10.2025 - 18:37
2
Статус: Offline


Радикальное среццтво

Регистрация: 5.05.08
Сообщений: 16399
Мы всё умрём?
 
[^]
TopGanKote
12.10.2025 - 18:37
21
Статус: Online


Ярила

Регистрация: 8.11.12
Сообщений: 3086
Кстати да , если начнется апокалипсис , то зачем охране обслуживать и защищать явно лишнего человека и его семью в новых условиях , которые перечеркнут все привычное

Еда и патроны .. и зачем в этом уравнении Цукерберг со своей женой ?

Размещено через приложение ЯПлакалъ
 
[^]
УмникБл
12.10.2025 - 18:38
19
Статус: Online


Интим не предлагать!

Регистрация: 5.06.14
Сообщений: 2012
Цитата
Почти двухметровая стена закрывала строящийся проект от посторонних глаз с близлежащей дороги.


Щенок.

Кажется, техномиллиардеры готовятся к концу света. Стоит ли нам всем беспокоиться?
 
[^]
Яzzь
12.10.2025 - 18:39
5
Статус: Offline


Ярила

Регистрация: 9.01.16
Сообщений: 3726
Бункеру на Гавайях не мешают грунтовые воды, которые свободно переносятся по высокопроницаемой лаве, из которой состоит Кауаи?
 
[^]
KUZA13
12.10.2025 - 18:39
7
Статус: Offline


Балагур

Регистрация: 7.04.13
Сообщений: 803
Цитата (24Регион124 @ 12.10.2025 - 18:35)
У нас такими стенами палисадники огораживают.

Люблю нашу страну и такие комментарии!

Размещено через приложение ЯПлакалъ
 
[^]
Семьянин
12.10.2025 - 18:39
1
Статус: Offline


Ярила

Регистрация: 30.04.14
Сообщений: 5625
Цитата (Anderlecht @ 12.10.2025 - 18:29)
А есть смысл?

Нет конечно. Рано или поздно все умрут 🤣

Размещено через приложение ЯПлакалъ
 
[^]
kolyokky
12.10.2025 - 18:42
3
Статус: Offline


Ярила

Регистрация: 27.09.10
Сообщений: 1187
Ха, был бы я миллиардером, ЯП ещё и не такое исполнял, я ещё тот выдумщик rulez.gif

Это сообщение отредактировал kolyokky - 12.10.2025 - 18:43
 
[^]
nexthak
12.10.2025 - 18:43
9
Статус: Online


Копипостер

Регистрация: 29.12.15
Сообщений: 799
Цитата из текста:
Однажды я встретила бывшего телохранителя миллиардера, у которого был собственный «бункер». Он рассказал, что в случае реального апокалипсиса приоритетом охраны будет устранение самого босса и заня

Чувствуется некоторая недосказанность но по сути всё так и есть. Это при нормальных текущих условиях они имеют какой-то вес и власть. А если всё дойдёт до бункеров. То всё это уже не будет иметь никакого значения. И будут жрать друг друга от безысходности. В игрушке метро в какой-то из частей всё очень хорошо показано.
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
24 Пользователей читают эту тему (1 Гостей и 1 Скрытых Пользователей) Просмотры темы: 6645
22 Пользователей: pepper762, johndoe11, Artyosha, strifus, Vintel, Emeev, nevnt, mark1980v8, lelikminsk, roux700, DickShelton, maxo0, SsilfF, box4, vadimucas, isle234, ALRain, tolstyatinka, BENDERRR33, haired, vaxmypka, Ирбис2034
Страницы: (4) [1] 2 3 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх