你是否担心人工智能发展过快,可能会产生负面后果?你希望有一部国家法律来规范它吗?如今,没有新的法律来限制人工智能的使用,通常自我监管成为采用人工智能的公司的最佳选择——至少目前是这样。
尽管“人工智能”取代“大数据”成为科技界最热流行词汇已经很多年了,但2022年11月下旬ChatGPT的推出开启了一场人工智能淘金热,这让包括我们在内的许多人工智能观察者感到惊讶。在短短几个月内,大量强大的生成人工智能模型吸引了世界的注意力,这要归功于它们模仿人类语言和理解的非凡能力。
在ChatGPT的出现的推动下,主流文化中生成模型的非凡崛起引发了许多关于这一切走向的问题。人工智能能够产生令人信服的诗歌和异想天开的艺术,这一令人惊讶的现象正在让位于对人工智能负面后果的担忧,从消费者伤害和失业,一直到虚假监禁,甚至毁灭人类。
这让一些人非常担心。上个月,一个人工智能研究人员联盟寻求暂停开发比GPT-4更大的新生成模型六个月(延展阅读:公开信敦促暂停人工智能研究),GPT-4是OpenAI上个月推出的大规模语言模型(LLM)。
图灵奖得主Yoshua Bengio和OpenAI联合创始人Elon Musk等人签署的一封公开信表示:“先进的人工智能可能代表着地球生命史的深刻变化,应该以相应的谨慎和资源进行规划和管理。”“不幸的是,这种水平的规划和管理并没有实现。”
毫不奇怪,对人工智能监管的呼声正在上升。民意调查显示,美国人认为人工智能不可信,希望对其进行监管,尤其是在自动驾驶汽车和获得政府福利等有影响力的事情上。
然而,尽管有几项针对人工智能的新地方法律——比如纽约市的一项法律,该法律侧重于在招聘中使用人工智能,执法工作被推迟到本月——国会没有专门针对接近终点线的人工智能的新联邦法规(尽管人工智能已涉足金融服务和医疗保健等高度监管行业的法律范畴)。
在人工智能的刺激下,一家公司该做什么?公司想要分享人工智能的好处并不奇怪。毕竟,成为“数据驱动”的冲动被视为数字时代生存的必要条件。然而,公司也希望避免使用人工智能不当可能导致的负面后果,无论是真实的还是感知的。
人工智能是狂野的“西部世界”。人工智能律师事务所BNH.AI的创始人Andrew Burt曾说过,“没有人知道如何管理风险。每个人都有不同的做法。”
话虽如此,公司可以使用几个框架来帮助管理人工智能的风险。Burt建议使用人工智能风险管理框架(RMF: Risk Management Framework),该框架来自美国国家标准研究所(NIST),于今年早些时候定稿。
RMF帮助公司思考他们的人工智能是如何工作的,以及可能产生的潜在负面后果。它使用“地图、测量、管理和治理”的方法来理解并最终降低在各种服务产品中使用人工智能的风险。
另一个人工智能风险管理框架来自O'Neil风险咨询与算法审计(ORCAA)首席执行官Cathy O'Neil。ORCAA提出了一个名为“可解释的公平”的框架。
可解释的公平性为组织提供了一种方法,不仅可以测试他们的算法是否存在偏见,还可以研究当检测到结果差异时会发生什么。例如,如果一家银行正在确定是否有资格获得学生贷款,那么哪些因素可以合法地用于批准或拒绝贷款或收取更高或更低的利息?
显然,银行必须使用数据来回答这些问题。但是,他们可以使用哪些数据,也就是说,哪些因素反映了贷款申请人?哪些因素在法律上应该被允许使用,哪些因素不应该被使用?O'Neil说,回答这些问题既不容易也不简单。
O'Neil在上个月举行的Nvidia GPU技术会议(GTC)上的一次讨论中表示:“这就是这个框架的全部意义,即这些合法因素必须合法化。”
数据分析和人工智能软件供应商Dataiku人工智能的负责人Triveni Gandhi表示,即使没有新的人工智能法律,公司也应该开始自问如何公平、合乎道德地实施人工智能,以遵守现有法律。
“人们必须开始思考,好吧,我们如何看待现有的法律,并将其应用于目前存在的人工智能用例?”“有一些规定,但也有很多人在思考我们想要构建人工智能的道德和价值导向方式。这些实际上是公司开始问自己的问题,即使没有总体规定。”
欧盟将人工智能的潜在危害归类为“临界金字塔”
欧盟已经在推进自己的法规,即《人工智能法案》,该法案可能在今年晚些时候生效。
《人工智能法案》将为影响欧盟居民的人工智能的使用创建一个共同的监管和法律框架,包括人工智能的开发方式、公司可以将其用于什么目的,以及不遵守要求的法律后果。该法律可能会要求公司在某些用例中采用人工智能之前获得批准,并禁止某些被认为风险太大的其他人工智能用途。