- Добавлены логи в frontend (ClaimForm.tsx) для отслеживания unified_id и запросов к API - Добавлены логи в backend (claims.py) для отладки SQL запросов - Создан лог сессии с описанием проблемы и текущего состояния - Проблема: API возвращает 0 черновиков, хотя в БД есть данные
59 lines
2.5 KiB
Markdown
59 lines
2.5 KiB
Markdown
# Как ускорить генерацию визарда с 40 до 10-15 секунд
|
||
|
||
## Быстрое решение (рекомендуется)
|
||
|
||
### Шаг 1: Заменить модель
|
||
В ноде `OpenAI Chat Model3`:
|
||
- **Было:** `gpt-4.1-mini-2025-04-14`
|
||
- **Стало:** `gpt-4o-mini`
|
||
|
||
**Эффект:** -20-25 секунд (40 сек → 15-20 сек)
|
||
|
||
### Шаг 2: Сократить промпт
|
||
Заменить промпт в `AI Agent3` на оптимизированную версию из `optimized_wizard_prompt.txt`
|
||
|
||
**Эффект:** -10-15 секунд (15-20 сек → 10-15 сек)
|
||
|
||
### Шаг 3: Добавить настройки модели
|
||
В `OpenAI Chat Model3` → `Options`:
|
||
- `temperature`: `0.3` (меньше креативности = быстрее)
|
||
- `maxTokens`: `2000` (ограничить длину ответа)
|
||
|
||
**Эффект:** -2-5 секунд
|
||
|
||
## Итого
|
||
**40 секунд → 10-15 секунд** (ускорение в 2.5-4 раза)
|
||
|
||
## Дополнительные оптимизации (опционально)
|
||
|
||
### Кэширование похожих запросов
|
||
Добавить ноду перед AI Agent:
|
||
1. Вычислить хэш первых 200 символов `chatInput`
|
||
2. Проверить Redis: есть ли кэш для этого хэша
|
||
3. Если есть — вернуть из кэша (0 сек)
|
||
4. Если нет — запустить AI Agent и сохранить результат в кэш на 1 час
|
||
|
||
**Эффект:** Для повторных/похожих запросов — мгновенный ответ
|
||
|
||
### Streaming (для UX)
|
||
Если n8n поддерживает streaming:
|
||
- Начать обрабатывать JSON по частям
|
||
- Показывать прогресс пользователю
|
||
|
||
**Эффект:** UX улучшится, но общее время не изменится
|
||
|
||
## Проверка результата
|
||
После применения оптимизаций:
|
||
1. Откройте форму
|
||
2. Введите описание проблемы
|
||
3. Засеките время до появления плана вопросов
|
||
4. Должно быть 10-15 секунд вместо 40
|
||
|
||
## Откат изменений
|
||
Если что-то пошло не так:
|
||
1. Верните модель `gpt-4.1-mini-2025-04-14`
|
||
2. Верните старый промпт
|
||
3. Уберите настройки `temperature` и `maxTokens`
|
||
|
||
|