生成式AI是最近颇引人注目的一种AI技术,它使用非监督和半监督式算法从现有材料(如文本、音频、视频、图像和代码)中生成新的内容。这个AI分支的用途正在呈现出爆炸式的增长,企业组织正在使用生成式AI更好地服务于客户、更多地利用企业现有数据、提高运营效率,以及许多其他用途。
但就像其他新兴技术一样,生成式AI并非没有重大风险和挑战。根据Salesforce最近对高级IT领导者进行的一项调查显示,有79%的受访者认为,生成式AI技术可能存在安全风险,73%的受访者担心生成式AI可能存在偏见,59%的受访者认为生成式AI的输出内容不准确。此外,还需要考虑法律问题,特别是外部使用的生成式AI生成的内容真实准确、内容受版权保护或者来自竞争对手。
例如,ChatGPT本身会告诉我们,“我的回复是根据从大型文本数据集中学习的模式和关联性生成的,并且我没有能力验证数据集中所有引用来源的准确性或可信度。”
仅法律风险就十分广泛,根据非营利性Tech Policy Press组织称,这些风险包括合同、网络安全、数据隐私、欺诈性贸易行为、歧视、虚假信息、道德、知识产权和验证相关的风险。
事实上,你所在的组织可能已经有很多员工正在测试使用生成式AI了,并且随着这项活动从试验转向现实生活,在意外后果发生之前采取积极主动的措施是非常重要的。
谷歌公司首席决策科学家Cassie Kozyrkov表示:“如果AI生成的代码奏效的话,那么它水平很高。但这并不总是有效的,所以在将它复制粘贴到其他重要地方之前,不要忘记测试ChatGPT的输出内容。”
企业使用政策和相关培训可以帮助员工了解这项技术存在的一些风险和陷阱,并提供规则和建议以帮助他们了解如何充分利用该技术,从而不让组织陷入风险的情况下实现商业价值最大化。
考虑到这一点,以下有六个最佳实践可以用于制定企业使用生成式AI的政策。
确定你的政策范围——企业制定使用政策的第一步是考虑其范围。例如,这会涵盖所有形式的AI还是仅针对生成式AI?仅针对生成式AI可能是一种很有用的方法,因为这解决了包括ChatGPT在内的大型语言模型,而不必影响其他众多AI技术。如何为针对更广泛的领域建立AI治理政策则是另一回事,网上有数百种这样的资源。
让整个组织的所有相关利益相关者都参与进来——这可能包括人力资源、法律、销售、市场营销、业务开发、运营和IT。每个团队都可能会有不同的用途,内容如何被使用或者误用产生的后果也可能不尽相同。让IT和创新团队参与进来,说明该政策不仅仅是从风险管理角度制定的一种限制措施,而是一系列平衡的建议,旨在最大限度地提高生产效率和业务利益,同时管理业务风险。
考虑生成式AI的现有和未来使用方式——与所有利益相关者展开合作,逐条列出目前正在应用的所有内部和外部用例,以及针对未来设想的用例,其中每一项都有助于为政策制定提供信息,并确保覆盖了相关领域。例如,如果你已经看到提案团队(包括承包商)正在尝试使用生成式AI起草内容,或者产品团队正在生成创意营销内容,那么你就知道,可能会因为输出了潜在侵犯他人知识产权而产生后续知识产权方面的风险。
处于不断发展的状态——在制定企业使用政策时,重要的是要全面思考并涵盖进入系统的信息、生成式AI系统的使用方式,以及从系统中输出的信息随后是如何被使用的。关注内部和外部用例以及两者之间的一切。通过要求所有AI生成的内容都贴上标签,从而确保透明度并避免与人类生成的内容相互混淆,即使是内部使用,这项措施也可能有助于防止意外地将该内容重新用于外部使用,或者防止在未经核实的情况下根据你认为真实准确的信息采取行动。
在整个组织内广泛分享——由于政策通常很快就会被遗忘甚至无人阅读,因此围绕政策提供适当的培训和教育是非常重要的,这其中可以包括制作培训视频和主持现场会议。例如,和IT、创新、法律、营销和提案团队或者其他相关团队的代表进行现场问答,可以帮助员工了解未来的机遇和挑战。一定要列举出大量的例子来帮助让听众身临其境,比如当重大法律案件突然出现时,可以作为例子被引用。
对文档进行动态更新——和所有政策文档一样,你需要让文档保持动态更新,根据新的用途、外部市场条件和发展要求以合适的节奏对其进行更新。让所有利益相关者“签署”该政策或将其纳入由CEO签署的现有政策手册中,表明这些政策已经获得了高层的批准并且对组织很重要。你的政策应该只是你更广泛治理方法的一个组成部分,无论是针对生成式AI,还是普遍的AI技术或者技术治理。
这不是法律上建议,你的法律和人力资源部门应该在批准和传播政策方面发挥主导作用。但希望这能够给你提供一些参考意见。就像十年前的企业社交媒体政策一样,现在花时间在这方面上,未来几年将有助于你减少意外的发生和不断变化的风险。