# Как ускорить генерацию визарда с 40 до 10-15 секунд ## Быстрое решение (рекомендуется) ### Шаг 1: Заменить модель В ноде `OpenAI Chat Model3`: - **Было:** `gpt-4.1-mini-2025-04-14` - **Стало:** `gpt-4o-mini` **Эффект:** -20-25 секунд (40 сек → 15-20 сек) ### Шаг 2: Сократить промпт Заменить промпт в `AI Agent3` на оптимизированную версию из `optimized_wizard_prompt.txt` **Эффект:** -10-15 секунд (15-20 сек → 10-15 сек) ### Шаг 3: Добавить настройки модели В `OpenAI Chat Model3` → `Options`: - `temperature`: `0.3` (меньше креативности = быстрее) - `maxTokens`: `2000` (ограничить длину ответа) **Эффект:** -2-5 секунд ## Итого **40 секунд → 10-15 секунд** (ускорение в 2.5-4 раза) ## Дополнительные оптимизации (опционально) ### Кэширование похожих запросов Добавить ноду перед AI Agent: 1. Вычислить хэш первых 200 символов `chatInput` 2. Проверить Redis: есть ли кэш для этого хэша 3. Если есть — вернуть из кэша (0 сек) 4. Если нет — запустить AI Agent и сохранить результат в кэш на 1 час **Эффект:** Для повторных/похожих запросов — мгновенный ответ ### Streaming (для UX) Если n8n поддерживает streaming: - Начать обрабатывать JSON по частям - Показывать прогресс пользователю **Эффект:** UX улучшится, но общее время не изменится ## Проверка результата После применения оптимизаций: 1. Откройте форму 2. Введите описание проблемы 3. Засеките время до появления плана вопросов 4. Должно быть 10-15 секунд вместо 40 ## Откат изменений Если что-то пошло не так: 1. Верните модель `gpt-4.1-mini-2025-04-14` 2. Верните старый промпт 3. Уберите настройки `temperature` и `maxTokens`