能否在追问中坚持判断?揭秘大语言模型的判断一致性挑战
多轮对话中大语言模型在做出正确判断后,如果面对追问中的质疑、否定、误导等干扰它还能坚持先前的正确判断吗?最近来自南京理工大学(NJUST)的研究者们发现大语言模型(LLMs)在面对追问时经常会在其判断上动摇,即使原始判断是正确的。这种判断的不一致性为生成可靠回应和建立用户信任带来了重大挑战。论文标题:AskAgain,ThenFail:LargeLanguageModels'VacillationsinJudgement论文地址:https:arxiv.orgabs2310.02174...