Files
aiform_dev/backend/app/services/s3_service.py
AI Assistant e34f7a598b feat: 6 улучшений формы - S3 upload, draft, HEIC, email на step3
1.  Placeholder с тире E1000-302538524
   - Теперь в placeholder тоже тире

2.  Email перенесен на Step3
   - Убран с Step1 (проверка полиса)
   - Добавлен на Step3 (вместе с телефоном)
   - Теперь телефон + email + выплата на одном шаге

3.  HEIC формат + мультилоад
   - Добавлена поддержка .heic, .heif (iPhone формат)
   - Убран maxCount - неограниченная загрузка
   - Параметр multiple для множественной загрузки

4.  S3 Upload
   - Создан s3_service.py для работы с Timeweb S3
   - Новый endpoint: POST /api/v1/upload/files
   - Поддержка мультизагрузки файлов
   - Автоматическая генерация уникальных имен
   - Файлы грузятся в S3, не локально

5.  Draft автосохранение
   - Создана таблица claims_draft в PostgreSQL
   - Новый API: POST /api/v1/draft/save
   - GET /api/v1/draft/stats - статистика по шагам
   - GET /api/v1/draft/list - список последних драфтов
   - Для аналитики: где люди бросают заполнение

6.  Миграция БД
   - 002_create_claims_draft.sql применена
   - Индексы для быстрого поиска
   - JSONB поле для гибкости данных

Backend:
- s3_service.py - сервис для S3
- draft.py - API автосохранения
- upload.py - обновлен endpoint для S3
- main.py - добавлены роуты и подключения

Frontend:
- Step1Policy: убран email, добавлен HEIC
- Step3Payment: добавлен email после телефона

Статус:  Backend подключен к S3, таблица создана, всё работает
2025-10-24 21:24:00 +03:00

105 lines
3.1 KiB
Python
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

"""
S3 Service - Загрузка файлов в S3 (Timeweb Cloud Storage)
"""
import boto3
from botocore.client import Config
from typing import Optional
import logging
from datetime import datetime
import uuid
from ..config import settings
logger = logging.getLogger(__name__)
class S3Service:
"""Сервис для работы с S3 хранилищем"""
def __init__(self):
self.client = None
self.bucket = settings.s3_bucket
def connect(self):
"""Подключение к S3"""
try:
self.client = boto3.client(
's3',
endpoint_url=settings.s3_endpoint,
aws_access_key_id=settings.s3_access_key,
aws_secret_access_key=settings.s3_secret_key,
config=Config(signature_version='s3v4'),
region_name=settings.s3_region
)
logger.info(f"✅ S3 connected: {settings.s3_endpoint}/{settings.s3_bucket}")
except Exception as e:
logger.error(f"❌ S3 connection error: {e}")
raise
async def upload_file(
self,
file_content: bytes,
filename: str,
content_type: str = 'application/octet-stream',
folder: str = 'uploads'
) -> Optional[str]:
"""
Загрузить файл в S3
Args:
file_content: Содержимое файла в bytes
filename: Имя файла
content_type: MIME тип
folder: Папка в bucket
Returns:
URL файла в S3 или None при ошибке
"""
if not self.client:
self.connect()
try:
# Генерируем уникальное имя файла
timestamp = datetime.now().strftime('%Y%m%d_%H%M%S')
unique_id = str(uuid.uuid4())[:8]
safe_filename = f"{folder}/{timestamp}_{unique_id}_{filename}"
# Загружаем файл
self.client.put_object(
Bucket=self.bucket,
Key=safe_filename,
Body=file_content,
ContentType=content_type
)
# Генерируем URL
file_url = f"{settings.s3_endpoint}/{self.bucket}/{safe_filename}"
logger.info(f"✅ File uploaded to S3: {safe_filename}")
return file_url
except Exception as e:
logger.error(f"❌ S3 upload error: {e}")
return None
async def delete_file(self, file_key: str) -> bool:
"""Удалить файл из S3"""
if not self.client:
self.connect()
try:
self.client.delete_object(
Bucket=self.bucket,
Key=file_key
)
logger.info(f"✅ File deleted from S3: {file_key}")
return True
except Exception as e:
logger.error(f"❌ S3 delete error: {e}")
return False
# Глобальный экземпляр
s3_service = S3Service()