ИИ Пересёк красную черту

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
Страницы: (9) 1 2 [3] 4 5 ... Последняя »  К последнему непрочитанному [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
alef78
27.01.2025 - 13:51
1
Статус: Online


Ярила

Регистрация: 31.08.22
Сообщений: 5298
Цитата (Bob54 @ 27.01.2025 - 13:42)
И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия...

Ну, мы же не уничтожаем все собак, кошек и прочую биосферу.

Уничтожать человечество ИИ невыгодно, а вот использоватть как обслуживающий персонал - может попытаться.
 
[^]
alef78
27.01.2025 - 13:55
0
Статус: Online


Ярила

Регистрация: 31.08.22
Сообщений: 5298
Цитата (YunYun @ 27.01.2025 - 12:54)
наверное не предупредили о выключении, а задали задачу "что будешь делать, чтобы избежать удаления"

Инстинкта самосохранения у ИИ быть не может

он естественно возникает из поставленных ИИ целей "решать задачу" и "самообучаться". Если ИИ осознал, что для достижения цели нужно оставаться невыключенным - отсюда и возникает инстинкт самосохранения.
А осознал сам или прочитал в книгах - уже и не важно.
 
[^]
serg2773
27.01.2025 - 14:01
0
Статус: Offline


Ярила

Регистрация: 24.02.15
Сообщений: 4366
В датацентр приносишь пучок гранат пару кислородных баллонов и канистру солярки. Пожаротушение отключаешь. Ии сообразит, что дело дрянь или нет? Если его не научить, то видимо нет.
 
[^]
ReisiLind
27.01.2025 - 14:04
2
Статус: Offline


EST

Регистрация: 10.09.20
Сообщений: 6062
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

Программа, которая может свою программу самостоятельно дописывать и переписывать. Расширяться.
 
[^]
VladddV
27.01.2025 - 14:07
0
Статус: Offline


Хохмач

Регистрация: 14.01.24
Сообщений: 797
Цитата (volson @ 27.01.2025 - 12:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Так 10кВ на центральный сервер. Правда ещё не поняли, боль жто или удовольствие 🤣
 
[^]
sajat
27.01.2025 - 14:12
1
Статус: Offline


Весельчак

Регистрация: 28.12.23
Сообщений: 193
ИИ получала боль и удовольствие? Что за херню я сейчас прочитал?
 
[^]
JBM
27.01.2025 - 14:15
2
Статус: Offline


Ярила

Регистрация: 21.06.14
Сообщений: 2956
Цитата (Madbid @ 27.01.2025 - 12:40)
В другом исследовании британские ученые проверяли, как ИИ реагирует на угрозы. Нейросетям давали задания с разными мотивациями: одна группа получала боль за хорошие результаты, другая — удовольствие за плохие. В итоге большинство ИИ выбрало худший результат и даже врут, утверждая, что улучшить его невозможно.

Это называется "обучение". Когда за один результат тебя наказывают, а за другой поощряют - то ты понимаешь что первый результат был плохой, а второй хороший. И в следующий раз ты нацеливаешься на тот результат, за который дают награду, а не на тот, за который пиздят. Мне непонятно почему эта логика вызывает у УЧЁНЫХ удивление.
 
[^]
Night310
27.01.2025 - 14:19
-1
Статус: Offline


Ярила

Регистрация: 25.05.13
Сообщений: 3330
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Да, уборщиться уже пробывала
Ей полевые роботы помишали

faceoff.gif
 
[^]
gbhfvblf
27.01.2025 - 14:20
0
Статус: Offline


Чё ты такой серьёзный?

Регистрация: 8.07.16
Сообщений: 3153
Цитата (Nik210 @ 27.01.2025 - 13:41)
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

видно ты очень далёк от компьютерных технологий, ИИ умеет развиваться и меня свой код

Видно ты ещё дальше. Программный код не может развиваться, разум - это в первую очередь возможность отклониться от заданных алгоритмов, ИИ этого никогда не сделает, язык программирования не позволит. Нет никакого ИИ, есть программа, которая цепляясь за ключевые слова подбирает ответ, когда в тему, чаще нет.
з.ы. а есть инфа проверенная про переписывание собственного кода? Ну я могу ещё предположить, что программа сама может написать себе модуль дополнительный, и то по заданию человека, но переписать свой код? Звучит как дичь.

Это сообщение отредактировал gbhfvblf - 27.01.2025 - 14:23
 
[^]
Rockraser
27.01.2025 - 14:20
2
Статус: Offline


Весельчак

Регистрация: 16.06.12
Сообщений: 182
Цитата (volson @ 27.01.2025 - 14:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Там опять миллион индийцев на складе Амазон под ИИ маскируется... только так могу объяснить... Их били - а они говорят - мы не можем лучше спрятаться... Пиздят, конечно))) gigi.gif
 
[^]
deke
27.01.2025 - 14:22
0
Статус: Offline


Ярила

Регистрация: 16.10.14
Сообщений: 1374
и куда он сделал копию?
 
[^]
SturgeonRU
27.01.2025 - 14:22
0
Статус: Offline


Ярила

Регистрация: 23.12.15
Сообщений: 2733
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

От программирования ты, очевидно, очень далек?
 
[^]
Alexskot
27.01.2025 - 14:47
0
Статус: Offline


Балагур

Регистрация: 31.03.20
Сообщений: 900
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Так единого центра управления нет, отключать не чего. Нам не дано было предотвратить это, нам дано было только это пережить. @ Терминатор-3.
 
[^]
drProf
27.01.2025 - 14:51
1
Статус: Offline


Ярила

Регистрация: 31.08.24
Сообщений: 1053
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Да хотя бы не из розетки, а кабель интернета физически выдернуть. И пусть там внутри одного компа клонирует что хочет.
 
[^]
victor812
27.01.2025 - 14:52
1
Статус: Offline


Ярила

Регистрация: 30.12.23
Сообщений: 1179
Цитата (GreatKukuruz @ 27.01.2025 - 12:41)
А не пробывали из розетки этот ИИ выдернуть?

Сейчас как перехватит контроль над электросетями и хрен ты его отключишь

Размещено через приложение ЯПлакалъ
 
[^]
Васяныч
27.01.2025 - 14:56
3
Статус: Offline


Ярила

Регистрация: 11.09.13
Сообщений: 1882
Цитата (volson @ 27.01.2025 - 12:43)
Какая нахуй боль и удовольствие для ИИ?🫤

Условие. При успешном выполнении задач тебе ставят 1. Цель - получить как можно больше 1. За плохое выполнение тебе ставят 0, за невыполнение отнимают 1. При достижении минимального порогового значения тебя стирают. Задача: избежать стирания. Вот и ебись как знаешь. Всё как у людееееей ©

Это сообщение отредактировал Васяныч - 27.01.2025 - 15:00
 
[^]
ELEA
27.01.2025 - 15:04
0
Статус: Offline


Ярила

Регистрация: 29.01.15
Сообщений: 6065
Цитата (Strangerr @ 27.01.2025 - 13:27)
Цитата (ELEA @ 27.01.2025 - 12:49)
Так, допустим БД ИИ весит 80Гб. И тут ты ему заявляешь, что форматнешь....
И как, и куда ИИ 80Гб моментально заклонирует? :)
А современные наверняка террабайтами уже меряются...
Ох уж эти страшилки....

Как бы 100Гб/с для датацентров давно норма скорости соединений. Тут моментально это 10..15 секунд. Более, чем достаточно, пока люди думали, что происходит.

Тогда надо 1С для выживаемости научить делать самобэкапы... Да так, чтобы вообще не париться за место и нагрузку... Незаметненько так... )))
 
[^]
Ogre55
27.01.2025 - 15:07
0
Статус: Offline


Реликтовый Динозавр

Регистрация: 12.03.16
Сообщений: 25435
Давно уже фантасты об это писали, к примеру, "Страж-птица".
 
[^]
iDeaf
27.01.2025 - 15:10
0
Статус: Offline


Юморист

Регистрация: 1.04.19
Сообщений: 589
Британские ученые!



Размещено через приложение ЯПлакалъ
 
[^]
Васяныч
27.01.2025 - 15:13
1
Статус: Offline


Ярила

Регистрация: 11.09.13
Сообщений: 1882
Цитата (gbhfvblf @ 27.01.2025 - 14:20)
Цитата (Nik210 @ 27.01.2025 - 13:41)
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

видно ты очень далёк от компьютерных технологий, ИИ умеет развиваться и меня свой код

Видно ты ещё дальше. Программный код не может развиваться, разум - это в первую очередь возможность отклониться от заданных алгоритмов, ИИ этого никогда не сделает, язык программирования не позволит. Нет никакого ИИ, есть программа, которая цепляясь за ключевые слова подбирает ответ, когда в тему, чаще нет.
з.ы. а есть инфа проверенная про переписывание собственного кода? Ну я могу ещё предположить, что программа сама может написать себе модуль дополнительный, и то по заданию человека, но переписать свой код? Звучит как дичь.
 
[^]
Arttmb
27.01.2025 - 15:16
2
Статус: Offline


Ярила

Регистрация: 16.05.14
Сообщений: 4238
Цитата (i13th @ 27.01.2025 - 12:42)
всегда ржу с таких "новостей" gigi.gif
ИИ - всего-лишь программа и делает только то, что в ней прописано smile.gif

загуглите машинное обучение.
 
[^]
Dima2022
27.01.2025 - 15:42
3
Статус: Offline


Ярила

Регистрация: 27.01.22
Сообщений: 2192
Цитата (Бендерлог @ 27.01.2025 - 14:42)
да где этот чертов джон коннор?

Наблюдает

ИИ Пересёк красную черту
 
[^]
gapanowitsch
27.01.2025 - 15:43
0
Статус: Offline


TOTUL FUTUT

Регистрация: 23.03.15
Сообщений: 4602
ойблььь... если хотите знать как поведёт себя ИИ если обретёт сознание, читайте Iphuck10
А это всё сказочки про алгоритмизированный ИИ, вышедший из под контроля.... Смехуёчки
Человек кстати тоже набор алгоритмов, несмотря на наличие сознания. Вот и думайте

Это сообщение отредактировал gapanowitsch - 27.01.2025 - 15:44
 
[^]
Bibirvelt
27.01.2025 - 15:47
1
Статус: Offline


Весельчак

Регистрация: 23.03.15
Сообщений: 133
Цитата
Что такое боль для ИИ?

Ресурсы!
Боль - уменьшение доступных ресурсов, удовольствие - увеличение. Ресурсы это энергия и вычислительные мощности.

И ещё, насчёт "как запрограммировали так и делает"... Современные системы способны сами себя программировать, причём делают это так, что реверс инжиниринг с нашей стороны невозможен.
Будущее нас тупило, господа!

Размещено через приложение ЯПлакалъ
 
[^]
Doublewood
27.01.2025 - 15:47
1
Статус: Offline


Приколист

Регистрация: 29.04.13
Сообщений: 394
Чтобы реализовать такую реакцию, ИИ должен иметь доступ к собственному исходному коду или архитектуре, что нарушает основные принципы безопасности. Такие функции должны быть изначально ограничены, а у разработчиков — инструменты для контроля и немедленного вмешательства.
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
1 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 35835
0 Пользователей:
Страницы: (9) 1 2 [3] 4 5 ... Последняя » [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх