企业权衡开源生成式 AI 的风险和收益

人工智能
在 EmTech MIT,专家们探讨了在企业中采用生成式 AI 的挑战和好处,包括开源生成式 AI 模型的优缺点。

在 EmTech MIT,专家们探讨了在企业中采用生成式 AI 的挑战和好处,包括开源生成式 AI模型的优缺点。

本周早些时候,在麻省理工学院技术评论(MIT Technology Review)主办的EmTech MIT会议上,人工智能在演讲中占有重要地位。随着实验生成式人工智能的压力越来越大,组织正面临着一系列挑战,从特定领域的准确性等实际问题到安全和隐私风险。

生成式人工智能已经在企业环境中找到了多样化的应用。IBM Infrastructure 首席技术官兼创新总经理 Hillery Hunter 在她的演讲“生成式 AI 世界中的数据影响”中指出,早期用例包括供应链、客户支持、合同和法律。“企业开始明白,人工智能将以多种不同的方式打击他们,”亨特说。

随着组织探索生成式 AI 的广泛用例,人们对开源选项的兴趣也在增加。虽然从长远来看,对流行的大型语言模型(如 GPT-4)的专有许可访问可能会受到限制且成本高昂,但开源替代方案通常更便宜且更可定制。

因此,利用开源选项可以使公司减少对供应商的依赖,并构建针对特定任务和工作流程量身定制的专用内部工具。但是,负责任地将开源生成式人工智能集成到企业中,需要严格评估安全、道德和技术能力方面的风险。

评估开源与专有生成式 AI

博思艾伦汉密尔顿生成式人工智能总监艾莉森·史密斯(Alison Smith)在她的演讲“开源生成式人工智能”中概述了开源生成式人工智能的机遇和风险。

Smith 强调了开源社区与 AI 突破之间的历史联系,机器学习的重大进步与 TensorFlow 和 PyTorch 等开源计划有关。然而,在生成式人工智能时代,迄今为止性能最高的 LLM 已被关闭。

但生成式人工智能是一个快速发展的领域,未来平衡可能会发生变化,特别是对于利基应用。开源的低成本、灵活性和透明度使其对希望微调利基应用程序模型和审查源代码是否存在安全漏洞的组织具有吸引力。

“关于开源与封闭和专有的争论一直存在,”史密斯在接受TechTarget编辑部采访时说。“我认为,由于这些生成式人工智能模型的强大功能,这一点只会被放大。

尽管像ChatGPT这样面向消费者的生成模型仍然大多是专有的,但史密斯认为,开源在更狭窄的应用中越来越受欢迎,它可以提供专业化、透明度和成本优势。“真的很难围绕开源做出这些笼统的声明,或者根本不做,”她说。

相反,决定是使用专有还是开源生成式人工智能,可能涉及检查特定用例的细节。史密斯提到,生态系统可能会出现一个针对特定任务量身定制的小型开源模型,而 ChatGPT 等消费者应用程序在很大程度上仍然是专有的。

史密斯说:“我不认为我们期望在这种非常广泛的生成式人工智能层面上看到一个与另一个。“ChatGPT 太棒了,因为你可以随心所欲地问它,做各种疯狂的任务。但是,对于特定的企业级用例,您真的需要它吗?可能不是。

开发开源生成式人工智能的难点

尽管有其好处,但构建开源生成式人工智能可能会被证明是具有挑战性的。与其他类型的软件甚至机器学习的其他领域相比,生成式人工智能需要更广泛的基础设施和数据资源,以及构建和操作模型的专业人才。

这些因素都为构建有效的开源生成式人工智能带来了潜在的障碍。即使对于资金雄厚的企业来说,训练有用的高性能模型所需的财务和计算资源也具有挑战性,更不用说在开源环境中工作的模型开发人员了。这些资金挑战虽然在人工智能开发中加剧,但反映了开源领域长期存在的普遍问题。

“即使使用开源软件,无论框架或库多么流行 - 即使是Python作为编程语言 - 对于所有维护它的人来说,这确实是一项吃力不讨好的工作,”史密斯说。“而且很难商业化。”

史密斯提到,免费增值模式提供对基本功能的免费访问,同时对某些功能或服务(如安全或咨询)收费,这是一种潜在的融资方式。其他常见的模式包括众筹、非营利组织的支持和大型科技公司的资助。然而,后者可能会引发围绕影响开源模型和软件开发而引发的棘手问题。

“开源社区的伟大之处在于,贡献来自一个庞大的、多样化的人群,”史密斯说。“每当你集中资金时,你可能会夸大集中资金来源的激励措施。

预测和管理企业生成式 AI 风险

在企业中有效地部署生成式人工智能,特别是在通过微调领域和组织特定数据来充分利用该技术的情况下,需要仔细平衡风险管理与创新。

尽管许多组织都感受到了快速实施生成式 AI 计划的压力,但部署强大的概率模型需要深思熟虑,尤其是对于敏感应用程序。例如,处理与医疗保健或国家安全有关的信息的模型比客户服务聊天机器人涉及更大的风险。

对于生成式人工智能的企业应用,如内部问答系统,史密斯强调需要对用户访问和权限进行控制。正如员工只能访问其组织文档管理系统中的某些文件夹一样,内部 LLM 应仅向有权接收信息的用户提供信息。实施适当的访问控制可以确保用户只获得适合其角色的响应。

“首先列举可能的风险总是很重要的,”史密斯说。“[首先]你从它的严重性开始,无论你试图完成什么行动,其次,它有多广泛 - 有多少人会受到影响。

鉴于预测所有风险不太可能实现,因此仔细规划和制定事件响应策略至关重要。“对我来说,最好的做法是首先从安全态势开始,”史密斯说,然后继续讨论有效性和用户体验问题。

Hunter 指出,IBM 的研究发现,提前规划可以显着降低与网络安全事件相关的成本。在 IBM 2023年版的年度“数据泄露成本报告”中,与低级别同行相比,具有高水平事件响应规划和测试的组织节省了近 150 万美元。

“我认为我们倾向于 - 特别是当我们对新技术感到兴奋时 - 被这些好处所震撼,”史密斯说。“我几乎希望我们能先就风险进行对话,你正在详细说明......所有可能出错的事情,知道还有更多的事情。然后,基于这些好处,这有意义吗?

责任编辑:华轩 来源: AI技术和商业思维
相关推荐

2023-11-07 16:03:46

人工智能

2024-10-23 15:35:08

2023-04-10 10:28:33

ChatGPTAI风险管理计划

2023-08-11 17:02:57

2024-10-12 13:05:23

2024-03-25 10:32:57

2024-09-13 17:16:48

2024-03-01 10:00:09

2023-09-11 12:54:33

2023-02-28 11:19:35

CHATGPT人工智能

2024-03-20 06:55:04

AI技术CIOGenAI

2023-12-06 13:10:07

2023-11-17 16:09:26

人工智能知识管理

2024-05-10 13:15:27

2023-08-23 10:12:41

VMware

2018-03-12 11:03:54

隐藏多云安全

2023-08-08 15:58:03

2024-02-27 10:36:10

2023-10-30 10:06:32

点赞
收藏

51CTO技术栈公众号