← 全部观点
架构
为什么 RAG 在 2026 年仍然是企业 AI 落地的首选
2026-04-227 min
2025 年中,长上下文模型把 1M token 塞进 prompt 的能力让很多人觉得 RAG「过时」了。我们在为客户做了 12 个 AI 落地项目之后,反而越来越确信:对企业知识库场景,RAG 仍然是赢家。
理由有四:
第一,成本可控。1M token 上下文每次推理动辄数美元,而向量检索 + 200K token 上下文的 RAG 链路通常是它的 1/10 甚至 1/50。
第二,可观测。RAG 的检索结果是结构化的,每次回答能追溯到「引用了哪 N 条文档」。长上下文是黑盒,调试困难。
第三,更新频率。客户知识库每天都在变。RAG 只需重新 embedding 新文档,长上下文需要重新拼 prompt,每次都贵。
第四,权限边界。企业的不同岗位看到的知识范围不同。RAG 在检索层做权限过滤是干净的;长上下文里塞的内容人人共享,权限难管。
我们的建议:先 RAG,后混合。先把 RAG 跑通拿到效果,再视场景考虑用长上下文做兜底(例如对召回失败的查询)。
Want this in your inbox?