Meta 公司副总裁兼全球事务主席、前英国副首相尼克・克莱格(Nick Clegg)近日在接受 BBC 采访时,对生成式人工智能(generative AI)的风险进行了淡化,称其目前还很傻(quite stupid)。他认为,目前的炒作“有些超前于技术”。
IT之家注意到,克莱格的这番言论正值 Meta 公司发布其开源的生成式人工智能模型 Llama 2 之际,Meta 表示 Llama 2 的预训练内容比 Llama 1 多 40%,并且可以免费用于研究和商业目的。
生成式人工智能是指能够根据输入的数据自动生成文本、图像、音频等内容的人工智能技术。其中,大型语言模型(LLMs)是一种常见的生成式人工智能模型,可以根据给定的文字或语音输入生成连贯的文字或语音输出,Llama 2 就是一种大型语言模型。
克莱格对大型语言模型“很傻”的评价并非完全没有道理,目前这些模型还存在“幻觉”的问题,也就是说它们会给出一些完全不符合事实的答案。
BBC 在其报道中提出了另一个关于 Llama 2 的风险,即这个模型是开源的,意味着任何人都可以编辑代码。他们可能会为了恶意目的而删除防止其说出有害内容的保护措施,克莱格对此不以为然,认为这是夸大其词,并坚称 Llama 2 甚至不能生成图像,更不用说“制造生物武器”了。他接着解释说,大型语言模型一直都在被开源,相比之下,Llama 2 比任何其他模型都更安全。
这些模型是否会被恶意使用,只有时间才能证明。不过,开源模型的一个好处是能使生成式人工智能变得民主化。初创公司可以利用这些代码并在其基础上进行创新,与诸如 ChatGPT 和 Google Bard 等大公司竞争,促进科技的进步。