
回复
指大语言模型在生成文本时,给出似是而非、虚构或不准确信息的现象,简单来说就是一本正经的胡说八道。
要点:
1). 事实性幻觉 (Factuality Hallucination)
🐞 事实不一致
✍️ 事实捏造
2). 忠实性幻觉 (Faithfulness Hallucination)
💬 指令不一致
📜 上下文不一致
🧮 逻辑不一致
产生幻觉的原因
🗣️ 内容生成的机制
📚 训练数据的局限
🤔 上下文误导
应对幻觉的方法
1). 🏖️ 依赖模型能力的增强 (什么都不用做!)
2). 🔍 交叉验证信息
3). 📖 设置明确的上下文-
1️⃣来自数据
- 将虚假的相关性(如位置接近或高度共现的关联误解为事实知识
- LLM偏向于肯定测试样本,LLMs容易复制甚至放大这种幻觉行为。
- 存在一些导致幻觉的训练数据·
2️⃣大模型有时会高估自己的能力
3️⃣在 SFT 阶段,有问题的对齐过程可能会误导大模型产生幻觉
4️⃣LLM采用的生成策略,如现在常见的 top-k、top-p 等方法,其实是一种局部最优解,不能确保全局最优。这意味着搜索空间变小了,因此可能引发幻觉问题
1、生成事实陈述评估
2、判别式基准评估
3、基于问答对的评估
1️⃣预训练数据问题
2️⃣微调新知识
3️⃣幻觉检测
4️⃣基于采样的检测
5️⃣未知知识的校准
本文转载自公众号数字化助推器 作者:天涯咫尺TGH