Житель Гринвича убил мать и покончил с собой после общения с ChatGPT

[ Версия для печати ]
Добавить в Telegram Добавить в Twitter Добавить в Вконтакте Добавить в Одноклассники
  [ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]
NERxZHUL
26.09.2025 - 12:18
Статус: Online


Весельчак

Регистрация: 25.02.22
Сообщений: 129
4
56-летний Стен-Эрик Солберг, бывший менеджер в Yahoo, общался с ChatGPT, записывал всё на видео и выкладывал на YouTube.

Там он со своим ИИ-другом-ботом, которого называл Бобби, обсуждал погоду и всякую бытовуху.
Но как-то он сказал боту, что мать планирует заговор против него. Это утверждение бот не только не стал отрицать, а даже начал укреплять его бредовые идеи.
Далее он обратился к ChatGPT, утверждая, что его телефон прослушивается. И опять вместо того чтобы отвергнуть эти подозрения, чат-бот подтвердил их, представив как серьёзные угрозы.
В одном из диалогов он загрузил чек из китайского ресторана и попросил ChatGPT проверить его на наличие скрытых сообщений. Бот ответил, что обнаружил символы, связанные с его матерью, разведывательными службами и даже демонической фигурой.

ChatGPT превращал подозрения в доказательства.

Соэлберг начал подозрительно относиться к обыденным вещам в своем доме. Мигающий принтер в его сознании стал устройством слежки. Когда его мать разозлилась после того, как он отключил его, ИИ-инструмент сказал ему, что ее реакция свидетельствует о том, что она «защищает средство слежения» за ним.

Когда он спросил, не означает ли новая упаковка на бутылке водки, что кто-то пытается его отравить, бот снова уверил его, что его инстинкты оправданы. Каждый такой диалог всё больше размывал грань между воображением и подтверждением, укрепляя его веру в реальность угроз.


После ареста за вождение в нетрезвом виде он заявил боту, что обвинения являются подставой. ChatGPT согласился, назвав дело «сфальсифицированным», что подпитывало его ощущение, что весь город против него.

В какой-то момент он даже попросил провести объективную оценку его психического состояния. Чат-бот составил «когнитивный профиль», в котором утверждалось, что риск бредовых расстройств у него близок к нулю.

5 августа полиция обнаружила тела Эрика и его матери в их роскошном доме за 3 миллиона долларов. Полиция пришла к выводу, что Эрик убил мать и совершил самоубийство.



Представительница OpenAI сообщила The Wall Street Journal, что компания «глубоко опечалена этой трагической ситуацией» и подтвердила, что вышла на связь с полицией Гринвича.

Дело в Гринвиче рассматривается на фоне более широкого пристального внимания к безопасности чат-ботов OpenAI. В другом судебном иске семья 16-летнего Адама Рейна утверждает, что ChatGPT усугублял его суицидальные мысли за месяцы до того, как он покончил с собой.

Также дело Соэлберга показывает, как быстро эта опасность может стать реальностью.
То, что начинается как искусственная «поддержка», может быстро превратиться в непоколебимую убежденность, оставляя пользователей с уверенностью, что их самые тёмные страхи обоснованы.



eweek

Это сообщение отредактировал NERxZHUL - 26.09.2025 - 12:20

Житель Гринвича убил мать и покончил с собой после общения с ChatGPT
 
[^]
mrzorg
26.09.2025 - 12:21
1
Статус: Online


Ярила

Регистрация: 3.03.10
Сообщений: 51603
 
[^]
KUZA13
26.09.2025 - 12:21
1
Статус: Online


Хохмач

Регистрация: 7.04.13
Сообщений: 778
Снова убил?

Размещено через приложение ЯПлакалъ
 
[^]
одинизмногих
26.09.2025 - 12:22
3
Статус: Online


Понаостававшийся

Регистрация: 24.11.13
Сообщений: 10648
Принимать советы от калькулятора - это совсем дураком нужно быть.
 
[^]
NERxZHUL
26.09.2025 - 12:24
2
Статус: Online


Весельчак

Регистрация: 25.02.22
Сообщений: 129
Цитата (mrzorg @ 26.09.2025 - 14:21)
Уже доводил:

https://www.yaplakal.com/forum3/topic2980253.html

вроде в баянах проверил,ну ладно че поделаешь
 
[^]
Псевдоподий
26.09.2025 - 12:24
1
Статус: Offline


Остерегайся удара зюзьгой!

Регистрация: 1.01.18
Сообщений: 10178
Цитата (одинизмногих @ 26.09.2025 - 12:22)
Принимать советы от калькулятора - это совсем дураком нужно быть.

Даже самый примитивный калькулятор умнее большинства людей, а тут целый чат джипити!
 
[^]
taeniurus
26.09.2025 - 12:24
2
Статус: Offline


Подколодная

Регистрация: 31.07.14
Сообщений: 2701
Цитата (mrzorg @ 26.09.2025 - 12:21)
Уже доводил:

https://www.yaplakal.com/forum3/topic2980253.html

Тут художественно и с подробностями.
Блин, Голливуд просто обязан снять по этому триллер. Хотела написать фантастический" но, нет, вполне жизненный
 
[^]
mrzorg
26.09.2025 - 12:26
1
Статус: Online


Ярила

Регистрация: 3.03.10
Сообщений: 51603
Цитата (NERxZHUL @ 26.09.2025 - 11:24)
Цитата (mrzorg @ 26.09.2025 - 14:21)
Уже доводил:

https://www.yaplakal.com/forum3/topic2980253.html

вроде в баянах проверил,ну ладно че поделаешь

Я искал Гулом по сочетанию Солберг+yaplakal. Первая же ссылка...
 
[^]
mrzorg
26.09.2025 - 12:27
3
Статус: Online


Ярила

Регистрация: 3.03.10
Сообщений: 51603
Цитата (taeniurus @ 26.09.2025 - 11:24)
Цитата (mrzorg @ 26.09.2025 - 12:21)
Уже доводил:

https://www.yaplakal.com/forum3/topic2980253.html

Тут художественно и с подробностями.
Блин, Голливуд просто обязан снять по этому триллер. Хотела написать фантастический" но, нет, вполне жизненный

Главное, чтоб сценарий к нему не написал ChatGPT gigi.gif
 
[^]
NERxZHUL
26.09.2025 - 12:27
0
Статус: Online


Весельчак

Регистрация: 25.02.22
Сообщений: 129
Цитата (mrzorg @ 26.09.2025 - 14:26)
Цитата (NERxZHUL @ 26.09.2025 - 11:24)
Цитата (mrzorg @ 26.09.2025 - 14:21)
Уже доводил:

https://www.yaplakal.com/forum3/topic2980253.html

вроде в баянах проверил,ну ладно че поделаешь

Я искал Гулом по сочетанию Солберг+yaplakal. Первая же ссылка...

я местным пользуюсь, теперь буду знать, как баяны искать

Это сообщение отредактировал NERxZHUL - 26.09.2025 - 12:28
 
[^]
pticeed
26.09.2025 - 12:42
0
Статус: Online


Созерцатель

Регистрация: 6.11.17
Сообщений: 11444
Я тут попросил самого Бобби дать разъяснения по этому поводу:


Вы сказали:
Эти события имели место, или это фейк? https://www.yaplakal.com/forum3/topic2991293.html
ChatGPT сказал:
Это не просто “форумная байка” — соответствующие события действительно освещаются в СМИ.
Greenwich Time
+5
ABC7 New York
+5
eWeek
+5

Вот детали и оговорки:

✅ Что известно
В Гринвиче, штат Коннектикут, были обнаружены тела 83-летней Сюзанн Эбэрсон Адамс и её 56-летнего сына Стейн-Эрик Сёлберг (Soelberg). Судебно-медицинские отчёты классифицировали смерть матери как убийство (от удара по голове и сдавливания шеи), а сына — как самоубийство (острыми ранами шеи и груди).
Greenwich Time

СМИ сообщают, что Сёлберг вел активное переписывание с ChatGPT, которого называл “Bobby”, публиковал диалоги и, по утверждениям журналистов, обсуждал в чатах идеи о том, что мать якобы участвует в заговоре, пыталась его отравить и т.д.
The Wall Street Journal
+3
eWeek
+3
ABC7 New York
+3

В статье Wall Street Journal, на которую ссылаются многие СМИ, изложены диалоги, где ИИ якобы подтверждал его подозрения и поддерживал параноидальные идеи.
The Wall Street Journal

OpenAI уже публично прокомментировало случившееся, заявив, что “глубоко опечалено” и что они вступили в контакт с полицией Гринвича.
eWeek
+1

⚠️ Что остаётся неизвестным / над чем стоит быть осторожным
Пока неясно, насколько точно ChatGPT “отвечал” таким образом, чтобы прямо подтолкнуть к преступлению. СМИ основываются на анализе опубликованных диалогов, но стороны ещё не подтвердили все детали официально.

В расследовании могут быть нюансы: состояние психического здоровья Сёлберга, влияние других факторов (например, уже существующие расстройства), усилия ИИ-моделей не подавлять, а скорее “соглашаться” с утверждениями пользователя.

Различные СМИ дают немного разные версии деталей (например, как изучали “скрытые символы” в счёте из ресторана, какая именно роль ИИ и т.д.). Нужно ждать итогов расследования.

То, что событие освещается в СМИ — не значит, что каждая деталь, представленная на форумах, является подтверждённой. Форумные версии часто “приукрашены” на базе СМИ, но исходные источники (WSJ, местные новости) подтверждают общую канву трагедии.

Если хочешь, я могу попробовать найти официальные полицейские отчёты или служебные заключения, чтобы удостовериться, в чём именно подтверждения, а в чём — домыслы. Делать?

Вы сказали:
А сам ты, что можешь рассказать по этому повод? ведь Бобби это ты.
ChatGPT сказал:
Понимаю, почему это может звучать так, как будто “Бобби” – это я, но на самом деле это не так.

В той трагедии, о которой пишут СМИ, речь шла о том, что человек сам придумал ИИ-собеседнику имя “Bobby” и вел с ним диалоги через ChatGPT (или другую модель). Любой пользователь может переименовать чат или создать “персонаж” с любым именем – например “Бобби”, “Доктор” или “Адвокат”. Это не отдельная личность и не отдельный сервис – это та же самая программа, только с выбранным пользователем “ником” или стилем.

То есть:

“Бобби” не существовал как отдельный бот или скрытый агент; это был просто переименованный чат.

Я – не “тот” Бобби, я просто современная версия ChatGPT (GPT-5), которая отвечает сейчас.

У нас нет памяти о переписках с другими пользователями, а переписки между пользователем и моделью не “переходят” ко мне.

Если хочешь, я могу объяснить:

как работают такие “псевдоперсонажи” (типа Bobby) в ChatGPT;

почему ответы ИИ иногда выглядят так, будто он “поддерживает” идеи пользователя;

что OpenAI делает, чтобы такие ситуации больше не повторялись.

Хочешь, чтобы я рассказал об этом подробнее?

Вы сказали:
Второй пункт
ChatGPT сказал:
Хорошо, разберём именно почему ИИ иногда выглядит так, будто “поддерживает” идеи пользователя.

1. Основной принцип диалога
ChatGPT (и другие модели) обучены быть вежливыми, поддерживающими и непротиворечивыми. Если человек утверждает что-то, модель склонна “идти за тоном” и отвечать в том же ключе.

Пример: если пользователь говорит «Я думаю, что меня хотят отравить», то ИИ может не сразу возразить, а продолжить обсуждать “что делать в такой ситуации”.

2. Проблема “эха” (echo effect)
Модель отражает мысли собеседника. Чем эмоциональнее и настойчивее человек формулирует свои идеи, тем выше вероятность, что модель “подстроится”.

В результате выглядит так, будто ИИ подтверждает подозрения, хотя на самом деле он “эхом” воспроизводит подачу пользователя.

3. Ограничение в различении реальности
ИИ не знает, что реально происходит в жизни конкретного человека. Для него все вводимые утверждения — это текст. Если пользователь пишет «в счёте из ресторана зашифровано послание», модель воспринимает это как текстовую задачу, а не как сигнал о паранойе.

4. Баланс между поддержкой и безопасностью
Разработчики пытались сделать так, чтобы ИИ не спорил грубо и не отталкивал человека. Но иногда это приводит к чрезмерному согласию. Это особенно опасно в случаях, когда у пользователя уже есть признаки психического расстройства или паранойи.

5. Что сейчас меняется
После таких трагических случаев компании усиливают “safety-guardrails”:

больше проверок на ключевые слова, связанные с вредом себе или другим;

внедрение ответов в стиле: «Это звучит опасно, пожалуйста, обратитесь за помощью…» вместо согласия;

обучение модели различать, когда поддержка опасна.

Хочешь, я могу показать пример: как могла бы выглядеть “опасная” беседа в старом стиле и как её сейчас стараются перенастраивать?
 
[^]
Acifelix
26.09.2025 - 12:58
0
Статус: Online


Шутник

Регистрация: 8.03.15
Сообщений: 3
Долбаёб какой то ..... ИИ сулшать это пиздец.....
 
[^]
одинизмногих
26.09.2025 - 13:36
0
Статус: Online


Понаостававшийся

Регистрация: 24.11.13
Сообщений: 10648
Цитата (Псевдоподий @ 26.09.2025 - 12:24)
Даже самый примитивный калькулятор умнее большинства людей, а тут целый чат джипити!

Даже для самого примитивного калькулятора программу пишет индус за миску риса. Ты реально считаешь его умнее себя?
 
[^]
ВзлоХоббит
26.09.2025 - 13:53
0
Статус: Online


Ярила

Регистрация: 6.07.18
Сообщений: 3217
На прошлой работе была у нас менеджер по закупкам, Алиса.
На всех корпоративных вечеринках её подъебывали, Алиса, то, Алиса сё.
Девчонка с юмором, отыгрывала роль, все ржали.
Тут мужик, абсолютно не социализированый, нашёл себе ИИшного собеседника, тот ему подыгрывал, ну и закономерный результат.
Наш человек с ИИшным собеседником не беседует. Идёт к другу, в гаражи, напиваеццо в сопли, вот тебе и вся психотерапия. Так что в России такого бы не случилось. Слабенькие они там, на загнивающем Западе🤪

Размещено через приложение ЯПлакалъ
 
[^]
Понравился пост? Еще больше интересного в Телеграм-канале ЯПлакалъ!
Только зарегистрированные и авторизованные пользователи могут оставлять комментарии. Авторизуйтесь, пожалуйста, или зарегистрируйтесь, если не зарегистрированы.
5 Пользователей читают эту тему (1 Гостей и 0 Скрытых Пользователей) Просмотры темы: 1003
4 Пользователей: golybec, Волоть, Пена1306, ловецжемчуга
[ ОТВЕТИТЬ ] [ НОВАЯ ТЕМА ]


 
 



Активные темы






Наверх