- Добавлены логи в frontend (ClaimForm.tsx) для отслеживания unified_id и запросов к API - Добавлены логи в backend (claims.py) для отладки SQL запросов - Создан лог сессии с описанием проблемы и текущего состояния - Проблема: API возвращает 0 черновиков, хотя в БД есть данные
2.5 KiB
2.5 KiB
Как ускорить генерацию визарда с 40 до 10-15 секунд
Быстрое решение (рекомендуется)
Шаг 1: Заменить модель
В ноде OpenAI Chat Model3:
- Было:
gpt-4.1-mini-2025-04-14 - Стало:
gpt-4o-mini
Эффект: -20-25 секунд (40 сек → 15-20 сек)
Шаг 2: Сократить промпт
Заменить промпт в AI Agent3 на оптимизированную версию из optimized_wizard_prompt.txt
Эффект: -10-15 секунд (15-20 сек → 10-15 сек)
Шаг 3: Добавить настройки модели
В OpenAI Chat Model3 → Options:
temperature:0.3(меньше креативности = быстрее)maxTokens:2000(ограничить длину ответа)
Эффект: -2-5 секунд
Итого
40 секунд → 10-15 секунд (ускорение в 2.5-4 раза)
Дополнительные оптимизации (опционально)
Кэширование похожих запросов
Добавить ноду перед AI Agent:
- Вычислить хэш первых 200 символов
chatInput - Проверить Redis: есть ли кэш для этого хэша
- Если есть — вернуть из кэша (0 сек)
- Если нет — запустить AI Agent и сохранить результат в кэш на 1 час
Эффект: Для повторных/похожих запросов — мгновенный ответ
Streaming (для UX)
Если n8n поддерживает streaming:
- Начать обрабатывать JSON по частям
- Показывать прогресс пользователю
Эффект: UX улучшится, но общее время не изменится
Проверка результата
После применения оптимизаций:
- Откройте форму
- Введите описание проблемы
- Засеките время до появления плана вопросов
- Должно быть 10-15 секунд вместо 40
Откат изменений
Если что-то пошло не так:
- Верните модель
gpt-4.1-mini-2025-04-14 - Верните старый промпт
- Уберите настройки
temperatureиmaxTokens