输入“/”快速插入内容

大模型RAG 场景、数据、应用难点与解决

2024年8月19日修改
作者:悟乙己
放一段RAG解释:
RAG(Retrieval-Augmented Generation)检索增强生成,即大模型LLM在回答问题或生成文本时,会先从大量的文档中检索出相关信息,然后基于这些检索出的信息进行回答或生成文本,从而可以提高回答的质量,而不是任由LLM来发挥。
在早些 【 悟乙己:想自己利用OpenAI做一个文档问答的话...... ?】笔者看到了非常多文档问答的技术实践,技术路线大同小异,不过笔者在实践过程中恍然, 垃圾进,垃圾出 的定律在文档问答同样存在,所以,手上的文档该如何整理会让召回提升呢?
在【 队长:对于大模型RAG技术的一些思考 】也有一些吐槽:即使基于单篇文档回答,它们(ChatDoc,WPS AI)在我们垂直领域的文档的幻想问题还是很严重。但是输出的答案不认真看的话,确实挺惊艳。例如问个操作步骤问题,文档压根没这个内容,但是它一步步输出的极其自信。反正最后就想感慨一下,RAG确实没有想的那么容易。
不过RAG也在很多行业积极实践中,在【 RAG行业交流中发现的一些问题和改进方法 】提到了,RAG应该算是核心底层,适配各行各业,依然需要基础组件和各行业的适配应用:
笔者见到的比较完整、深入RAG的架构有三套: