- 人工智能法案 (AIA) 中提到了开源 AI 法规,该法案目前正在欧盟进行讨论。
- 然而,严格限制通用开源 AI (GPAI) 的使用、共享和分发可能会被视为倒退。
- 自由交流开源信息许可证,例如 MIT 许可证,旨在共享知识和概念,而不是零售成品、经过验证的商品。
- 扩大开源 GPAI 研究人员和开发人员的法律义务只会阻碍技术创新和发展。
目前正在讨论的欧盟人工智能法案(AIA)提到了对开源人工智能的监管。然而,对开源通用人工智能 (GPAI) 的使用、共享和分发施加严格限制可以被认为是一种倒退。
欧盟人工智能法案的目标
人类能够以如此快速的速度推进技术的唯一途径是通过开源文化。直到最近,人工智能研究人员才能够接受发布他们的源代码以提高开放性和验证性;然而,限制这一趋势可能会逆转科学界所取得的文化进步。
人工智能法案的两个目标的拟议监管结构特别突出:
- “确保法律确定性以促进人工智能的投资和创新”
- “促进合法、安全、可信赖的人工智能应用单一市场的发展,防止市场碎片化”
人工智能法案中的 GPAI 法规似乎与这些主张相矛盾。GPAI 鼓励创新和信息交流,而不用担心代价高昂和负面的法律后果。因此,与其建立一个抵抗碎片化的安全市场,一些严格的监管限制可能会真正发生,这些限制同时阻碍了开源开发并进一步垄断了主要科技巨头的人工智能开发。
是否应该更严格地监管人工智能的开源开发?
这更有可能导致市场透明度降低,从而使确定人工智能应用程序是否“合法、安全和值得信赖”变得更具挑战性。当然,这些都对 GPAI 没有好处。相反,这种强加可能造成的差异会给大公司更多的权力,这是一种日益增加和令人不安的恐惧。
同样重要的是要认识到,有些人可能会将这种对变化的反对解释为企业试图绕过规则。毫无疑问,《人工智能法》等法规对于制止有风险的不当行为是必要的。如果没有规定,人工智能会落入坏人之手吗?
应该指出的是,像人工智能法案这样的法规无疑是阻止风险不当行为的必要条件……
这是一个合理的担忧,当然,规则是必要的。但是,与其将这条定律同时应用于所有模型,不如逐个应用。与其从源头监管开源并限制创新,不如评估每个模型的潜在损害并进行相应管理。
该法案的执行是微妙的、复杂的和多维的。甚至那些总体上同意的人在其他方面也存在差异。不过,GPAI 对公众开放的事实是一个主要症结所在。这种开放、协作的方法是推动进步、透明度和技术发展的主要驱动力,以集体和个人的社会利益而不是商业利益。
自由分享信息
像 MIT 许可证这样的开源许可证旨在用于信息和想法共享,而不是用于销售经过验证的精美产品。因此,不应以类似方式处理它们。确实需要理想的监管组合。这是为了提高这些 AI 模型的开发方式、用于训练它们的数据类型以及是否存在任何已知限制的可靠性和开放性。然而,这绝不能以损害信息交换自由为代价。
《人工智能法案》的形式需要量身定制,以吸引开源软件用户更加谨慎。
《人工智能法案》的结构应该旨在鼓励开源软件的用户更加谨慎,并在将其提供给大量受众之前进行自己的研究和测试。这可以抓住那些试图在商业活动中利用创作者的工作而无需进行更多调查或应用质量标准的不良行为者。
实际上,在交付给消费者之前彻底检查所有东西应该是最终开发人员的责任和义务。这些人最终将从开源计划中获得经济利益。但是,该框架并未明确寻求在其当前状态下实现这一目标。开源的核心原则是为个人和非商业目的自由地交换信息和专业知识。
扩大开源 GPAI 开发人员和研究人员的法律责任只会扼杀技术的进步和创新。这将阻止开发人员交流知识和想法,使新企业或有抱负的人更难获得尖端技术。他们将无法建立自己的知识或被他人获得的东西所激励。
如今,包括智能建筑中也大量使用人工智能,其中也涉及安全方面的问题。近期,由千家网主办的2022年第23届中国国际建筑智能化峰会将正式拉开帷幕,本届峰会主题为“数智赋能,碳索新未来”,其中如何打造更安全的智能建筑将成为本届峰会主要探讨的主题之一。
峰会将于2022年11月8日至12月8日期间,分别在西安、成都、北京、上海和广州五大城市隆重举行。届时我们将携手全球知名建筑智能化品牌及专家,共同分享AI、云计算、大数据、IoT、智慧城市、智能家居、智慧安防等热点话题与最新技术应用,并探讨如何打造“更低碳、更安全、更稳定、更开放”的行业生态,助力“双碳”目标的实现。