在基于大语言模型的企业知识库问答系统中使用RAG(检索增强生成):为了让回答“更可信”,开发者将检索到的多篇文档全文不做筛选直接拼接进prompt上下文。上线后发现回答更不稳定(更易跑题/自相矛盾)且推理更慢。更可能的原因是()
A.
上下文冗余与噪声增多使注意力被稀释,关键信息不突出且更易冲突
B.
全文输入一定更好,只是模型参数规模太小所以无法稳定生成
C.
prompt过长会触发不同tokenizer路径,导致分词策略变化从而破坏语义
D.
检索结果越多一定更好,因此问题只能是向量库召回不够准确