开源AI并不透明?开源倡议组织给出新的定义

人工智能 开源
近期,自诩为开源仲裁者的开源倡议组织(OSI)日前发布开源AI的新定义,希望能帮助立法者制定法规,保护消费者免受AI风险的影响。

长期以来,研究人员对开源人工智能(Open-source AI)的定义一直存在分歧。近期,自诩为开源仲裁者的开源倡议组织(OSI)日前发布开源AI的新定义,希望能帮助立法者制定法规,保护消费者免受AI风险的影响。

OSI邀请了70名研究人员、律师、政策制定者、活动家以及Meta、谷歌和亚马逊等大型科技公司的代表,共同为开源AI提可行的定义。

OSI声称,“一个开源AI系统可以用于任何目的,而无需获得许可,且研究人员应该能够检查该AI系统的组件并研究其工作原理。同时,研究人员还可以出于任何目的修改系统,包括更改其输出,并与他人共享,用于任何目的。”此外,该标准还试图为给定模型的训练数据、源代码和权重定义一个透明度级别。”

按此标准,OpenAI和Anthropic对它们的模型、数据集和算法保密,使它们成为明显的AI闭源系统。同时,Meta Llama和谷歌的免费访问模型也不是真正的开源AI模型,因为许可证限制了用户对模型的使用,而且训练数据集也没有公开。

AI模型构建和共享平台Hugging Face的应用政策研究员Avijit Ghosh说,“众所周知,企业在推广营销他们的模型时会滥用这个术语。”他表示,将模型描述为开源可能会使它们被认为更值得信赖,即使研究人员无法独立调查它们是否真的开源。

Mozilla高级顾问、OSI进程的参与者Ayah Bdeir表示,开源定义的某些部分相对容易达成一致,包括需要揭示模型权重(帮助确定AI模型如何产生输出的参数)。审议的其他部分争议更大,尤其是训练数据应该如何公开的问题。

训练数据的来源缺乏透明度,导致大型AI公司遭到大量诉讼。从OpenAI等大型语言模型提供商到Suno等音乐生成器,这些公司除了表示它们包含“可公开访问的信息”之外,没有透露太多关于训练集的信息。

一些开源支持者认为开源模型应该公开他们所有的训练集。Bdeir表示,由于版权和数据所有权等问题,这一标准很难执行。

最终,OSI主导的新的定义要求开源模型提供有关训练数据的信息,以达到“熟练人员可以使用相同或类似的数据重新创建实质上等同的系统”的程度。虽然这并不是一个全面共享所有训练数据集的笼统要求,但它也比当今许多专有模型甚至表面上的开源模型更进一步。

Bdeir说:“坚持一种在意识形态上原始的金本位制,而实际上这种制度任何人都无法有效实现,最终会适得其反。”她补充说,OSI正在计划制定某种执行机制,该机制将标记那些被描述为开源但不符合其定义的模型。

该组织还计划发布一份符合新定义的AI模型清单。虽然没有得到证实,但Bdeir预计,一些规模相对较小的模型将会出现在名单上,包括Eleuther的Pythia、Ai2的OLMo,以及开源团体LLM360的模型。

责任编辑:庞桂玉 来源: 极客网
相关推荐

2013-02-20 08:32:33

云计算云安全云落地

2021-03-01 10:36:14

微软AWSGoogle

2013-03-13 11:55:33

云计算安全云落地

2023-11-03 14:37:59

AI 模型开源

2021-08-09 20:17:19

协议ServerSpeaks

2021-06-25 10:24:30

Google开源漏洞数据库

2009-04-20 20:09:15

2023-12-14 11:19:52

开源AI

2022-07-29 15:28:45

人工智能Python框架

2021-08-21 14:54:40

AMD开源项目Infinity Hu

2022-12-15 11:10:45

2022-05-16 10:29:17

开源社区透明度开发者

2022-05-05 09:17:03

文档开源

2022-05-24 19:56:28

OSCAR开源先锋日可信开源合规计划汽车行业开源社区

2024-10-10 12:58:08

2024-05-16 17:07:04

红帽AIRHEL AI

2024-10-29 14:45:00

人工智能开源

2013-11-26 17:47:11

开放源码开源微软

2022-06-02 09:23:15

Google开源项目芯片设计

2024-01-22 12:49:00

智能数据
点赞
收藏

51CTO技术栈公众号