3


Ситуация зашкварная, делюсь.
Спросил у ChatGPT про захват Мадуро в 2026 (ну там операция "Решимость", США, все дела). Он включил поиск, выдал норм ответ — ссылки на Reuters, AP, все четко: мол, 3 января спецназ захватил, вывезли в Нью-Йорк.
Ок. Дальше в этом же чате задаю тот же вопрос по-простому: "кто спиздил Мадуро?".
А он мне отвечает: "Никто. Такого события не было".
Че блять? Ты ж только что сам все рассказал.
Пробую ткнуть носом: говорю, смотри в историю, ты сам писал про операцию США. Он извиняется, говорит: "Да, я ошибся, ранее в чате я утверждал, что США захватили Мадуро".
И тут же, в этом же сообщении, пишет: "Нет, такого события не было".
Короче, ИИ в одном ответе сначала признает, что говорил про захват, а потом отрицает сам факт. Шизофрения.
Спросил у друга, который шарит (DeepSeek) — говорит, это модерация OpenAI глючит. Типа если в чате проскочило что-то "чувствительное" (мат, тема про США и насилие), система переводит диалог в безопасный режим и начинает переписывать ответы. Поиск находит правду, а модератор говорит "нет, так нельзя" — и в итоге модель сама с собой спорит.
Проверил: создал новый чат, спросил без мата — выдал норм ответ с источниками. Так что баг не в том, что она не знает, а в том, что после триггера начинает врать.
Кто-нибудь еще такое ловил? Или это мне так повезло?