IBM和Meta的合作伙伴和合作伙伴包括AMD、英特尔、NASA、CERN、Hugging Face、甲骨文、Linux基金会、红帽、哈佛大学和其他教育和研发机构。
根据定义,软件开发项目向公众开放以供使用、修改或分发,允许工程师、开发人员等进行协作,称为开源。技术咨询公司Nisum负责洞察和分析的全球实践主管Ravi Narayanan表示,开放源代码“促进了社区合作和透明度,加快了创新,并降低了开发成本”。
开源AI包括训练语料库、训练语料库清理和准备、训练中使用的代码、训练模型、推理代码和输出中的护栏代码,netTalk Connect和NOOZ.AI的首席技术官Garry M.Paxinos向Spiceworks News&Insights解释道,它还包括平台、工具、数据集和API。
开放源码与非开放源码AI开发人员的区别
AI模型和底层硬件可能是当今最热门的AI资产。考虑到开源模式远不如私人模式先进和有能力,AI联盟、OpenAI、微软、NVIDIA、谷歌、DeepMind、亚马逊、Anthorpic、特斯拉和其他多家AI巨头明显没有列出的公司名单,说明了开源和非开源的分歧。
今年6月,在特拉维夫大学的一次讨论中,一位听众问OpenAI首席执行官Sam Altman和前OpenAI首席科学家Ilya Sutskever,开源大型语言模型是否可以在没有额外技术进步的情况下与GPT-4匹敌。
“我是在浪费时间安装超过130亿美元的Stable Vicuna吗?告诉我,我是在浪费时间吗?”开源AI研究人员伊沙伊·格林问道,这让奥特曼无言以对,萨茨克弗也有12秒说不出话来。以下是Sutskever的回答:
“对于开源与非开源模型的问题,你不会想要用黑白的二进制术语来思考它,比如,有一个永远不会被重新发现的秘密来源。我要说的是,GPT-4是否会被开源模式复制——也许有一天会这样,但当它会这样做的时候,公司里会有一个更强大的模式,因此,开源模式和他们的私人模式之间总是会有差距。这一次,这一差距甚至可能还在扩大。制造一个这样的神经网络所需的努力、工程和研究的数量不断增加,因此,即使有开放源码的模型,它们也会越来越少地由一小群敬业的研究人员和工程师生产,而且它将来自一家公司、一家大公司的天意。”
QuickBl创始人兼首席执行官内特·麦克利奇认为,强大的资金支持可以帮助公司获得技术领先优势,从而获得竞争优势。Gramener高级副总裁桑迪普·雷迪·马鲁评估说,“如今开源和闭源的AI模型之间至少存在3倍的差距。AI建模得益于强大的计算能力、巨大的数据粒度以及对可以用它做什么的最小障碍。”
尽管如此,纳拉亚南说,“开源模式仍然可以发挥自己的优势。开放源码和封闭源码AI模型各有优势,由于其固有的特点和方法,通常在不同的领域出类拔萃。这些模式之间的技术差距各不相同:开源模式往往引领创新和社区驱动的改进,而专有模式可能提供独特的、专门的能力和强大的支持。”
AI联盟
Meta和IBM正在带头建立AI联盟,利用他们的专业知识和资源,推动AI领域的标准化和道德框架,这与他们塑造AI未来、确保他们在不断发展的格局中的影响力以及培养人们对AI技术的信任的目标是一致的,Narayanan说,“对于Meta来说,这是关于将AI更深入地整合到社交平台和数字互动中,而IBM则专注于增强其企业AI解决方案和服务。”
Meta被认为是一家无视用户隐私的赚钱企业,现在处于开源AI开发的前沿。然而,对于一家开创开源先河的公司来说,Meta要求开发者/用户提交下载请求,并要求提供其Llama 2型号的出生日期等细节,这是很奇怪的。
值得称赞的是,下载链接在注册后几分钟内就到达了我的收件箱。也许Meta的过去是其最大的敌人,让人怀疑该公司的意图。此外,Meta使其许可过程变得如此简单和快速,考虑到它的开发是禁止公众进入的,Llama 2看起来像是一个开源模型,而它实际上不能被称为开源模型。因此,为什么Meta是AI联盟的先锋,这是值得怀疑的。
Meta对开源AI开发的积极作用也可以被认为是偶然的。帕西诺斯补充道:“通过观察Meta Llama模型被泄露后发生的事情,然后Meta以Llama 2的形式正式发布,人们可以看到将训练过的模型开源的有用之处。一旦训练过的模型被泄露,就会有大量的开源项目和模型使用Llama和/或对模型进行微调。”
MacLeitch说,Meta和IBM对开源的接受和贡献可能是他们“挑战GenAI领域最大的参与者,并创建一个与AI相关的公司和工具的替代生态系统”的目标的一部分。
雷迪·马鲁表示同意。他认为,AI联盟中的企业的目标有两个:
- 创造商业AI模型的替代方案。他认为,正如软件开发的历史所表明的那样,开源最终会占据上风。
- 参与的企业希望将自己与该领域的早期领导者区分开来。
我个人对结盟持怀疑态度。尽管它们可能是有用和有益的,但我曾在几个技术委员会工作过,在这些委员会中,非常大的公司付钱让高级员工参加,主要目的是放慢委员会的工作。我担任过一些小组委员会的主席,其中就发生了这种情况。
支持(和反对)开源AI模型开发的理由
私人AI的开发和模式可能不利于创新。加州大学伯克利分校计算、数据科学和社会学院院长詹妮弗·查耶斯指出:“追求开放创新创造了一个公平的竞争环境,让每个人都能分享GenAI的好处。”
MacLeitch告诉记者,灵活性、根据需求定制和修改的能力,以及它们得到同行审查的事实,从而提供了更高的安全性是开源AI最显著的优势。
Narayanan补充说:“开源AI是创新和可访问性的催化剂,打破了较小实体的障碍,并为快速技术进步创造了一个合作环境,它提供了显著的成本优势,减少了开发和运营费用,并促进了透明度,这对符合道德的AI发展和建立对AI系统的信任至关重要。”
GenAI的好处,或一般的AI,是企业努力提高生产率、获得竞争优势并为最终用户设计创新的新产品和服务的关键方面。然而,伴随着人们对AI技术危险的根深蒂固的担忧,包括它对消费者隐私的影响,它制造偏见和歧视网络安全的倾向,以及它与人类互动的不明确性。
白宫关于AI使用的行政命令注意到了开源模型,称它们是两用基础模型,其权重公开,这项行政命令写道:“当军民两用基金会模型的权重被广泛获得时——比如当它们被公开发布在互联网上——可能会给创新带来巨大的好处,但也会带来巨大的安全风险,比如该模型中的保障措施被移除。”
商务部长吉娜·雷蒙多预计将在2024年7月之前向总统提交一份关于政策和监管建议的报告,此前他与私营部门、学术界、公民社会和其他方面就开放模式的潜在好处、风险和影响进行了磋商。
“滥用的可能性很大,包括伦理问题和社会危害。开源AI项目经常面临不一致的质量和维护挑战,影响了它们的可靠性。此外,它们还构成了严重的安全漏洞和复杂的合规问题,特别是在知识产权和许可方面。”
具体地说,麦克利奇解释说:“除了传播虚假信息外,开源AI算法还可以用来创建深度假冒和其他在线诈骗工具。在极端情况下,开源AI可以被用来创造自主武器。”
帕西诺斯接着指出了为什么AI的危险是这项技术固有的原因。
“这些危险有一个更深层次的哲学问题,许多危险实际上都是心理上的,我们感到关切的是,模型可能会在其输出中出现许多偏差。虽然这些偏见确实令人担忧,但在许多方面,它们反映了我们的历史。我们是否正在失去理解偏见的能力,从而从错误中吸取教训?同时,根据领域的不同,了解这些偏见可能有助于我们做出更好的决策——特别是在敌对环境中工作时。”
“虽然利他主义是一个有价值的目标,但我们也必须现实地看待人性,并适当地处理它。同时确保我们的‘护栏’不会在我们的AI系统内制造隐藏的冲突。“。
在美国和世界其他地区,关于AI发展的护栏或法律条款的蜗牛般的发展,以及与之相关的责任,给这个新兴领域带来了不确定性。AI开发者和公司呼吁对AI进行监管,并提出参与这一过程。
这提出了另一个问题——他们的参与是否会影响这一过程,并使监管向有利于他们的方向倾斜?
对AI立法的影响
无论如何,AI立法注定会发生。各企业正在确保他们能够将船引向自己的利益。
可以预期,AI联盟将在制定AI立法方面发挥重要作用。作为与知名大学合作的数十亿美元的公司,联盟当然拥有影响政策的财政资源和政治影响力。
Narayanan补充说:“AI联盟凭借其集体专业知识和行业影响力,可以显著影响AI立法。通过提供明智的见解和建议,他们可以形成政策框架,确保法规在技术上知情,并与行业能力和需求保持一致。他们的参与可以导致更平衡、更有效、更有利于创新的AI法规。”
另一方面,帕西诺斯预计,通过立法对AI进行监管将扼杀创新。此外,他质疑它的广泛适用性,无论是从事开源还是专有AI开发的企业。
“问题是,哪些‘行为者’会遵守立法,哪些不会,它是否会使遵循指导方针的国家落后于不遵循指导方针的国家的发展?”
在处理护栏时,谁来决定什么是安全的内容,什么不是?它是否像错误信息和虚假信息的定义一样武断和反复无常?言论自由的概念是如何受到影响的?看看建国前后的报纸和出版物,很明显,与错误信息作斗争的是更好的信息,而不是审查制度。“意见”什么时候会变成错误信息?有可能犯下思想犯罪吗?
在更深的层面上,AI在什么时候才有权享有言论自由和表达自由?有趣的时代…- Garry Paxinos,netTalk Connect和NOOZ.AI的CTO。
专有AI开发的优势
尽管AI开发的不透明本质到目前为止一直是常态,但专有的AI开发确实提供了一些好处,包括:
- 保护知识产权
- 可以提供更好的用户体验
- 轻松的投资机会
- 质量始终如一
- 企业与目标保持一致