Gartner法律与合规实践部门高级主管分析师Ron Friedmann表示,“ChatGPT和其他大型语言模型(LLM)工具生成的输出容易存在一些风险。法律和合规领导者应该评估这些问题是否对企业构成重大风险,以及在企业内部及其扩展的第三方企业中需要采取哪些控制措施。如果不这样做,企业可能会面临法律、声誉和财务方面的后果。”
法律和合规负责人应该评估的六个ChatGPT风险包括:
1、捏造的和不准确的答案
也许ChatGPT和其他LLM工具最常见的问题是倾向于提供不正确的信息(尽管表面上看似合理)。
Friedmann称,“ChatGPT也容易产生‘幻觉’,包括捏造错误的答案,以及不存在的法律或科学引用。法律和合规领导者应该发布指导,要求员工在接受ChatGPT生成的任何输出之前,审查其准确性、适当性和有效性。”
2、数据隐私及保密
法律和合规负责人应该意识到,如果聊天历史没有被禁用,输入ChatGPT的任何信息都可能成为其训练数据集的一部分。
Friedmann解释称,“在提示中使用的敏感、专有或机密信息都可能会被纳入企业外用户的回复中。法律和合规部门需要为ChatGPT的使用建立一个合规框架,并明确禁止将敏感的企业或个人数据输入公共LLM工具。”
3、模型和输出偏见
尽管OpenAI努力减少ChatGPT中的偏见和歧视,但已知的这些问题已经发生,并且可能会持续存在,尽管OpenAI和其他企业正在积极努力地将这些风险降到最低。
Friedmann认为,“完全消除偏见几乎是不可能的,法律和合规需要凌驾于管理人工智能偏见的法律之上,并确保他们的指导是合规的。这可能涉及与主题专家合作,以确保输出的可靠性,并与审计和技术部门合作,以设置数据质量控制。”
4、知识产权(IP)和版权风险
考虑到ChatGPT是在大量的互联网数据上训练的,这些数据可能包括受版权保护的信息。因此,它的输出有可能违反版权或知识产权保护法案。
Friedmann称,“ChatGPT不提供源代码参考或解释其输出是如何生成的。法律和合规负责人应该密切关注适用于ChatGPT输出的版权法的任何变化,并要求用户仔细检查他们生成的任何输出,以确保它不侵犯版权或知识产权。”
5、网络欺诈风险
恶意行为者已经在大规模地滥用ChatGPT来生成虚假信息,例如,虚假评论。
此外,使用LLM模型的应用程序,包括ChatGPT,也容易受到提示注入的影响,这是一种黑客技术,使用恶意的对抗性提示来欺骗模型执行它不打算执行的任务,例如编写恶意软件代码或开发假冒知名网站的网络钓鱼网站。
Friedmann补充道,“法律和合规负责人应与网络风险所有者协调,探讨是否或何时就这一问题向公司网络安全人员发出备忘录。他们还应该对尽职调查来源进行审计,以核实其信息的质量。”
6、消费者保护风险
未能向消费者披露ChatGPT使用情况的企业(例如,以客户支持聊天机器人的形式)可能面临失去客户信任的风险,并在不同法律下被指控为“不公平”的做法。
例如,加州的聊天机器人法规定,在某些消费者互动中,企业必须清楚而明显地披露消费者正在与机器人进行交流。
Friedmann总结道,“法律和合规负责人需要确保他们企业的ChatGPT使用符合所有相关法规和法律,并向客户进行适当的披露。”