为 AI 提供正确的上下文可以提高准确性并减少幻觉。
在所有关于人工智能如何彻底改变工作(使日常任务更高效、更可重复,并增加个人努力)的对话中,人们很容易得意忘形:人工智能不能做什么?
尽管它的名字叫生成式人工智能,但能够创建图像、代码、文本、音乐等的人工智能,不能从无到有。AI 模型根据它们提供的信息进行训练,对于大型语言模型 (LLM),这通常意味着大量文本。如果人工智能在准确、最新和组织良好的信息上接受训练,它将倾向于以准确、最新和相关的答案做出回应。麻省理工学院的研究表明,将知识库整合到 LLM 中往往会提高输出并减少幻觉。这意味着人工智能和机器学习的进步,远非取代对知识管理的需求,实际上使它变得更加重要。
品质进,品质出
在陈旧、不完整的信息上训练的 LLM 容易产生“幻觉”,即不正确的结果,从稍微偏离基础到完全不连贯。幻觉包括对问题的错误回答以及有关人物和事件的虚假信息。
“垃圾输入,垃圾输出”的经典计算规则也适用于生成式人工智能。您的 AI 模型依赖于您提供的训练数据。如果这些数据已经过时、结构不良或漏洞百出,人工智能将开始发明误导用户的答案,并给您的组织带来麻烦甚至混乱。
避免幻觉需要一套知识体系,即:
- 准确可信,信息质量经过知识渊博的用户验证
- 随着新数据/边缘案例的出现,保持最新且易于刷新
- 上下文,这意味着它捕获了寻求和提供解决方案的上下文
- 持续改进和自我维持
支持讨论和协作的知识管理 (KM) 方法可以提高知识库的质量,因为它允许您与同事合作审查 AI 的响应并改进提示结构以提高答案质量。这种交互是人工智能中强化学习的一种形式:人类将他们的判断应用于人工智能生成的输出的质量和准确性,并帮助人工智能(和人类)改进。
提出正确的问题
使用 LLM 时,查询的结构会影响结果的质量。这就是为什么提示工程(了解如何构建查询以从 AI 中获得最佳结果)正在成为一项关键技能,也是生成式 AI 可以帮助对话双方的领域:提示和响应。
根据 Gartner 报告《知识管理的解决方案路径》(2023 年 6 月),“提示工程,即为 AI 制定指令或问题的行为,本身正迅速成为一项关键技能。以迭代、对话的方式与智能助手交互,将提高知识工作者指导人工智能完成知识管理任务的能力,并与人类同事分享所获得的知识。
利用 AI 集中知识共享
获取和分享知识对于知识管理实践的蓬勃发展至关重要。AI 驱动的知识捕获、内容丰富和 AI 助手可以帮助您向整个组织介绍学习和知识共享实践,并将其嵌入到日常工作流程中。
根据 Gartner的知识管理解决方案路径,“像 Stack Overflow for Teams 这样的产品可以与 Microsoft Teams 或 Slack 集成,以提供具有持久知识存储的问答论坛。用户可以直接向社区发布问题。答案被投赞成票或反对票,最佳答案被固定为最高答案。所有已回答的问题都是可搜索的,并且可以像任何其他知识源一样进行策划。这种方法还有一个额外的优势,即使知识共享成为工作流程的核心。
Gartner 的另一份报告《评估生成式 AI如何改善开发人员体验》(2023 年 6 月)建议组织“通过形成生成式 AI 增强开发的实践社区,收集和传播使用生成式 AI 工具的成熟实践(例如快速工程技巧和代码验证方法)。该报告进一步建议组织“通过学习和应用组织批准的工具、用例和流程,确保您拥有成功使用生成式人工智能所需的技能和知识。
注意复杂性悬崖
生成式 AI 工具非常适合新开发人员和希望学习新技能或扩展现有技能的经验丰富的开发人员。但有一个复杂性悬崖:在某个点之后,人工智能处理问题及其解决方案的细微差别、相互依赖性和完整上下文的能力就会下降。
“LLM 非常擅长增强开发人员的能力,让他们能够做得更多、行动更快,”Google Cloud Duet 的产品经理 Marcos Grappeggia 在最近一集的 Stack Overflow 播客中说。这包括测试和试验超出舒适区的语言和技术。但Grappeggia警告说,LLM“并不是日常开发人员的一个很好的替代品......如果你不理解你的代码,那仍然是失败的关键。
这个复杂的悬崖是你需要人类的地方,他们具有原创思维的能力和行使经验判断的能力。您的目标是制定知识管理战略,通过在人造知识上提炼和验证人工智能,利用人工智能的巨大力量。