Ошибки накапливаются на запросах с большой контекстной базой: мощностей LLM просто не хватает на охват всего контекста. Попробуйте задачу разбить на подзадачи по принципу "от большего к меньшему". Более того, попробуйте LLM в качестве промпт-инженера. Например:
Ты опытный промпт-инженер. Ты должен написать промпт, описывающий задачу для LLM. Промпт должен быть в формате MarkDown. Промпт должен включать раздел ограничений для LLM. В ограничениях должно быть требования о получении актуальных данных из Интернета по используемым сторонним API, требование максимально использовать реальные данные, требование оценки точности ответа. Задача для написания промпта:
"бла-бла-бла"
Заодно сами увидите, как ИИ понял вас и что нагенерил...
Это сообщение отредактировал genafana - 16.08.2025 - 12:03