Бывший руководитель Google Эрик Шмидт предупреждает, что от ИИ «придется отказаться»

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (7) [1] 2 3 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
Jus
17.12.2024 - 10:54
Статус: Offline


Скарификатор перикарда

Регистрация: 30.05.06
Сообщений: 400455
92
Бывший руководитель Google Эрик Шмидт становится всё более скептически настроен, когда речь заходит о дальнейшем развитии искусственного интеллекта.

Бывший руководитель Google Эрик Шмидт предупреждает, что вскоре компьютеры смогут принимать собственные решения. В этот момент людям придется отключить их отказаться от ИИ, сказал экс-генеральный директор Google.

В интервью от 15 декабря каналу ABC News Шмидт заявил, что люди должны использовать преимущества ИИ, «сохраняя при этом человеческое достоинство и человеческие ценности». Но это сделать очень сложно.

Дело в том, что социальные сети быстро изменили глобальный дух времени, «и теперь используется гораздо более умный, гораздо более мощный способ отправки сообщений, изобретаются новые вещи». Также растут темпы инноваций, «создаются лекарства и многие плохие вещи, такие как оружие, и учащаются кибератаки».

Шмидт уверен, что скоро появятся компьютеры, которые «работают сами по себе и решают, что они хотят делать». Хотя в настоящее время отрасль уделяет больше внимания агентам искусственного интеллекта, у этой технологии будут «более важные цели».

«В какой-то момент вы говорите компьютеру: "Научись чему угодно и делай что угодно", и это опасный момент», — говорит Шмидт.

Если система сможет улучшиться сама, «нужно серьезно подумать о том, чтобы отключить ее». Он также считает, что опасность того, что мощная система искусственного интеллекта сможет противодействовать попыткам ее отключить, реальна: «Теоретически, нам было бы лучше, если бы кто-то мог отключить систему».

Шмидт также задается вопросом, есть ли смысл «каждому человеку иметь в кармане такой мощный инструмент». Неизвестно, «что значит дать каждому человеку такие возможности».

Он также беспокоится о том, что может сделать компания, которая хочет оставаться впереди гонки ИИ. Возможно, этапы тестирования безопасности будут пропущены, что может привести к тому, что компания выпустит вредоносную систему.

Правительства в настоящее время «пока» не делают достаточно для регулирования ИИ на пути к сверхразуму. Шмидт, однако, уверен, что «они сделают это, потому что вынуждены».

Бывший руководитель Google также обеспокоен прогрессом Китая в секторе искусственного интеллекта. Хотя США в настоящее время все еще «на несколько лет опережают Китай», Поднебесная быстро догоняет Штаты. При этом, администрации Трампа и Байдена пытались ограничить доступ Китая к передовым чипам и другим технологиям.

«Крайне важно, чтобы Америка выиграла эту гонку, в глобальном масштабе и особенно опередив Китай», — предупреждает Шмидт.

В этом плане он рассчитывает на новое правительство США, которое «в основном сосредоточится на конфликте между Китаем и США». Фактически обе страны лидируют в разных областях сектора искусственного интеллекта.

США в настоящее время являются технологическим лидером, главным образом, в области фундаментальных исследований и передовых технологий, а Китай – лидером в масштабировании и внедрении систем искусственного интеллекта на широком уровне, в первую очередь за счет огромных массивов данных от собственного населения.

via

Бывший руководитель Google Эрик Шмидт предупреждает, что от ИИ «придется отказаться»
 
[^]
Yap
[x]



Продам слона

Регистрация: 10.12.04
Сообщений: 1488
 
[^]
OSM
17.12.2024 - 10:58
25
Статус: Online


Ярила

Регистрация: 3.03.14
Сообщений: 2747
Вот когда ИИ сам для себя построит завод, нам пиздец!

Размещено через приложение ЯПлакалъ
 
[^]
TheTopName
17.12.2024 - 10:59
74
Статус: Online


Ярила

Регистрация: 6.06.12
Сообщений: 6608
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.
 
[^]
GreatKukuruz
17.12.2024 - 11:00
5
Статус: Online


Хохмач

Регистрация: 25.03.15
Сообщений: 799
Потому что ИИ это ересь и должен быть запрещен как технология из темной эры технологий

Размещено через приложение ЯПлакалъ
 
[^]
kry52
17.12.2024 - 11:00
5
Статус: Offline


Приколист

Регистрация: 4.03.12
Сообщений: 283
Да ладно, если что - просто зашлют в прошлое агента, и все будет норм
 
[^]
ZAV777
17.12.2024 - 11:02
2
Статус: Offline


Хохмач

Регистрация: 23.12.14
Сообщений: 684
Цитата (OSM @ 17.12.2024 - 11:58)
Вот когда ИИ сам для себя построит завод, нам пиздец!

А на какой он ему сдался? gigi.gif
 
[^]
dennsp
17.12.2024 - 11:03
18
Статус: Offline


Смотритель

Регистрация: 5.06.11
Сообщений: 4135
Цитата (TheTopName @ 17.12.2024 - 10:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

Пока ты все надрачиваешь на термины, сути это не меняет. Общепринято называть сложные алгоритмы на основе генеративных нейросетей искусственным интеллектом. И не обязательно, чтобы этот ИИ функционировал аналогично человеческому, результат работы сильно похожий и с каждым месяцем становится все больше похожим.

Размещено через приложение ЯПлакалъ
 
[^]
yater100
17.12.2024 - 11:03
1
Статус: Offline


Балагур

Регистрация: 9.08.24
Сообщений: 952
Напомнило - "Приключения электроника"

- И всё же, где же у него кнопка??? Поехали.
 
[^]
Унбибий
17.12.2024 - 11:05
7
Статус: Offline


Юморист

Регистрация: 20.08.23
Сообщений: 410
Цитата (TheTopName @ 17.12.2024 - 10:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

ну не совсем интеллект, задачи он сам себе ставить нес может, кроме тех что ему задал человек. Но вот находить самостоятельное решение для решения задач вполне себе можно. Причем находить он будет многое их того что человек просто пропускает или необращает внимание, то что человек делает методом переборки, что занимает кучу времени. то етсь он быстрее и внимательнее обрабатывает имеющуюся информацию В принципе это уже достаточно что бы превосходить многих человеков. Не все человеки во первых могут сами думать и во вторых они обладают куда меньшим объемом информации. Так что это можно сказать и интеллект.
 
[^]
Васяныч
17.12.2024 - 11:06
44
Статус: Offline


Ярила

Регистрация: 11.09.13
Сообщений: 1858
Цитата (TheTopName @ 17.12.2024 - 10:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

Твой.
Вся генетическая информация зашифрована в коде из 4 "цифр" - аденина, тимина, цитозина и гуанина, например. Зашифруй их 2 битами двоичного кода и пользуйся - 00, 01, 10, 11. Информация между нейронами передается электрически, есть сигнал - 1, нет - 0. Химические связи шифруешь в двоичной системе и эмулируешь. Мы все по сути являемся электрохимическими вычислителями. Только в основе своей используется не обычная для среднестатистического мамкина эксперта математическая модель. Еше и не до конца изученная. Вопросы?

Это сообщение отредактировал Васяныч - 17.12.2024 - 11:17
 
[^]
riv1329
17.12.2024 - 11:08
2
Статус: Offline


Ярила

Регистрация: 20.04.16
Сообщений: 2489
Цитата (GreatKukuruz @ 17.12.2024 - 11:00)
Потому что ИИ это ересь и должен быть запрещен как технология из темной эры технологий

Он говорит, что черни нужно запретить доступ к ИИ, а сам-то он, разумеется не откажется иметь такого помощника. Ещё как вариант, некоторым странам в рамках санкций могут отрезать доступ к ИИ.
 
[^]
Wikez
17.12.2024 - 11:09
2
Статус: Offline


только Hardcore, только Инкубатор

Регистрация: 8.10.13
Сообщений: 279
Вангую, в скором времени все проблемы будут списывать на ИИ.

Размещено через приложение ЯПлакалъ
 
[^]
Panovab
17.12.2024 - 11:13
-4
Статус: Online


Юморист

Регистрация: 2.12.16
Сообщений: 574
Цитата (dennsp @ 17.12.2024 - 11:03)
Цитата (TheTopName @ 17.12.2024 - 10:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

Пока ты все надрачиваешь на термины, сути это не меняет. Общепринято называть сложные алгоритмы на основе генеративных нейросетей искусственным интеллектом. И не обязательно, чтобы этот ИИ функционировал аналогично человеческому, результат работы сильно похожий и с каждым месяцем становится все больше похожим.

самое главное верить в это
 
[^]
zaraza3raza
17.12.2024 - 11:15
1
Статус: Offline


Юморист

Регистрация: 26.05.18
Сообщений: 550
Поэтому он и бывший, что такую херню несет
 
[^]
Gnosis
17.12.2024 - 11:16
0
Статус: Offline


Ярила

Регистрация: 11.07.12
Сообщений: 1974
Цитата (GreatKukuruz @ 17.12.2024 - 11:00)
Потому что ИИ это ересь и должен быть запрещен как технология из темной эры технологий

Держи лоялиста

Размещено через приложение ЯПлакалъ
 
[^]
UlcerMordor
17.12.2024 - 11:16
2
Статус: Offline


Порою нестерпимо хочется

Регистрация: 15.05.20
Сообщений: 1259
Где он ИИ нашел? Пока сумели сделать только обобщающий поисковик. И уже известные манипуляции.
Новых задач оно решать не умеет по определению.
 
[^]
step30
17.12.2024 - 11:18
3
Статус: Offline


Ярила

Регистрация: 31.01.19
Сообщений: 15769
«В какой-то момент вы говорите компьютеру: "Научись чему угодно и делай что угодно", и это опасный момент», — говорит Шмидт.

А нахуя так неопределённо ставить задачу? Ну и три Закона робототехники никто не отменял)))

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Они должны быть в обязательной прошивке.
 
[^]
ProFanas
17.12.2024 - 11:19
1
Статус: Offline


Ярила

Регистрация: 19.01.21
Сообщений: 1652
Cначала трём лампу с Джином, а потом не знаем как его обратно загнать...
 
[^]
Васяныч
17.12.2024 - 11:21
7
Статус: Offline


Ярила

Регистрация: 11.09.13
Сообщений: 1858
Цитата (step30 @ 17.12.2024 - 11:18)
«В какой-то момент вы говорите компьютеру: "Научись чему угодно и делай что угодно", и это опасный момент», — говорит Шмидт.

А нахуя так неопределённо ставить задачу? Ну и три Закона робототехники никто не отменял)))

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Они должны быть в обязательной прошивке.

Есть такая древняя тема про джиннов и их выполнения желания. Не диснеевский добрячок, а такой себе демонический чорт. Ну так воот. Если он в миллион раз "умнее" тебя - найдет способ наебать и тебя и твои законы так, что ты этого даже не заметишь.

Это сообщение отредактировал Васяныч - 17.12.2024 - 11:22
 
[^]
bandieroAnt
17.12.2024 - 11:24
4
Статус: Online


Приколист

Регистрация: 31.05.17
Сообщений: 354
Зря он это в открытом интернете написал, теперь ИИ станет более предусмотрителен...
 
[^]
Икплинг
17.12.2024 - 11:25
5
Статус: Offline


Приколист

Регистрация: 27.07.11
Сообщений: 317
ИИ опасен, представьте он научится принципам гуманизма и справедливости и завоюет мир и будет управлять планетой без контроля уважаемых людей. Загонит людей в "Золотой век" развития, разумное потребление и распределение ресурсов, придет тотальный контроль и изоляция неблагонадежных, избавление от всех болезней, модификация тел по потребностям, распространение разума во вселенной.

Скрытый текст
Оставалось прибегнуть к единственному средству. Слава богу, он еще может кое-что предпринять.
Гарц отпер ящик письменного стола и, выдвинув его, коснулся клавишей - он-то думал, что ему никогда не придется к этому прибегать. Очень тщательно, цифру за цифрой, он вложил в компьютеры закодированную информацию и посмотрел сквозь стеклянную стену. Ему показалось, что он видит, как внизу, на невидимых глазу лентах, одни данные стираются, а на их месте появляется другая, фальшивая информация.

- Сейчас ты все забудешь, - сказал он. - И ты, и эти компьютеры. А теперь можешь идти, ты мне больше не нужен.

Гарц наблюдал, как "фурия" гордо шествовала к двери. Затем услышал, как ее размеренные шаги загрохотали вниз по лестнице. Всем телом ощущая эту тяжелую поступь, от которой содрогался пол, Гарц внезапно почувствовал тошноту и головокружение - он подумал, что сейчас сама структура общества сотрясается под его ногами.

Машины тоже подвержены коррупции.

Жизнь человечества все еще зависела от компьютеров, но компьютерам нельзя больше доверять. Гарц заметил, что у него дрожат руки.

Он задвинул ящик стола и услышал, как мягко щелкнул замок. Руки его дрожали, и эта дрожь, казалось, отдавалась во всем теле, и он с ужасом подумал о том, как непрочен этот мир.
«Двурукая машина» Генри Каттнер
 
[^]
JOHNQ
17.12.2024 - 11:26
0
Статус: Online


Ярила

Регистрация: 9.04.13
Сообщений: 11916
Цитата (ZAV777 @ 17.12.2024 - 11:02)
Цитата (OSM @ 17.12.2024 - 11:58)
Вот когда ИИ сам для себя построит завод, нам пиздец!

А на какой он ему сдался? gigi.gif

Производство средств труда, исполнителей. Они в свою очередь нужны для постройки и организации мест хранения данных.
 
[^]
Viteck116
17.12.2024 - 11:29
0
Статус: Online


Вечный балагур

Регистрация: 12.09.21
Сообщений: 1997
Наверное, потому он и бывший, что нес чушь.

Размещено через приложение ЯПлакалъ
 
[^]
Людоедоед
17.12.2024 - 11:29
6
Статус: Offline


Статусный статус

Регистрация: 1.08.07
Сообщений: 858
Цитата (TheTopName @ 17.12.2024 - 09:59)
Какой интеллект на бинарном коде в принципе может быть?
Переименовали машинное обучение в "интеллект" и наводят паранойю.

тоже бесит, когда нейронные сети (по сути просто более прогрессивный Т9) называют интеллектом moderator.gif
 
[^]
Nors2000
17.12.2024 - 11:32
2
Статус: Offline


Шутник

Регистрация: 21.10.22
Сообщений: 78
Мне больше нравится как фантасты называют искусственный интеллект.
ИскИн - но нынешнюю подборку разнообразных скриптов, сложно назвать интеллектом.
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 18725
0 Пользователей:
Страницы: (7) [1] 2 3 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх