人工智能领域刚刚发生了划时代的发展,如果你从事网络安全工作,你很快就会意识到它的影响。我自己的专业知识主要来自网络安全,但在过去的几年里,我一直致力于各种研究,其中包括利用各种工具了解人工智能。
你们中的许多人也将对人工智能有越来越多的认识。到目前为止,大多数人都至少尝试过ChatGPT,这是一种很棒的基于文本的聊天机器人AI,能够实时交互,并拥有比历史上任何人类都学识渊博。这已经给网络安全带来了一些问题,因为这种AI的各种功能可以通过API(应用程序编程接口)以非常低的成本被调用。
ChatGPT和其他商业人工智能平台的滥用虽然受到政策的限制,但仍然需要首先检测到任何不道德或非法的使用。这些AI不会故意以违反任何法律为目的,但那些没有任何道德规范的AI却在忙于寻找规避规则的方法。
在我解释它是如何发生的之前,让我先跳转到结局。想象一下,如果网络犯罪分子获得的不是一个庞大的数据中心,而是像ChatGPT 3.5或4.0那样强大的人工智能,能够在一台独立的机器上运行一个完全独立的实例,在那里他们可以决定它遵守什么规则或政策,会发生什么?
从技术上讲,网络犯罪分子重复使用这项工作是非法的,但遗憾的是,在多方努力下,事实证明,可以采用具有ChatGPT 3.5能力的人工智能模型(一种需要大规模数据中心才能运行其基本功能的人工智能),创建一个更小、更高效的版本,从而超越原版本(在迄今为止进行的少量测试中)。
以下是发生的事情:
我们早就被警告过,一旦人工智能到来,它的发展速度将是指数级的。
斯坦福大学研究团队的一组研究人员只使用了175个不同的手动创建任务(自我指导种子任务),并将这些任务与ChatGPT 3.5(感兴趣的人可以看DaVinci版本)的API连接结合使用,他们能够进入自动生成的循环,直到达到52000个对话的样本大小。
然后,他们将这些样本输入到一个单独的人工智能模型(Metas Llama 7B)中,并对其进行微调。到目前为止,该模型能够与原始模型进行有效竞争,而衍生模型仍然需要一些强大的云计算(但只需要运行GPT的一小部分)。
上述执行过程以小时为单位。
值得注意的是,这些任务仅被允许用于研究目的,因为OpenAI的各种条款和条件禁止使用GPT的输出来创建竞争模型。
随着这一成果的公开,研究人员公布了所有的关键数据。他们将由此产生的人工智能聊天机器人模型称为Alpaca 7B。
在对这一结果的可能性感到兴奋的同时,更多的人致力于研究该模型可以被进一步压缩的程度。所使用的过程被称为LoRA(Low-Rank Adaptation,低秩自适应),它所要做的是在每一个方面进行降维——例如,消除冗余特征,简化识别特征,以及在许多情况下,将大量多维公式网格简化为单个数字。
这种压缩所做的是使模型变得很小,据说它可以在Raspberry Pi这样小的东西上运行(正如免责声明所说,出于研究目的)。
尽管人们对压缩能走多远以及在短期内可能继续具有什么依赖性产生了疑问,但这一事件在网络安全背景下的影响是巨大的。
有证据表明(截至目前),盗窃和重新利用功能强大的人工智能模型不仅使网络犯罪分子唾手可得,而且能够通过非常小且便宜的硬件进行。
这意味着,作为一个行业,我们可以不必依靠大型人工智能公司的政策和控制来防止人工智能的恶意使用。现在,世界各地精明的网络犯罪分子都能够窃取和重新利用人工智能,直到几周前,我们还认为所需计算资源的规模和成本太高可能会阻止这种情况的发生。
现在开始锁定你的系统吧,因为到了2023年,我们必须加强我们的数字防御,并为网络安全中最新的人工智能驱动的挑战做好准备,事关生死。