本文转载自公众号“读芯术”(ID:AI_Discovery)。
GPT-3的强大功能令人惊叹,很多人认为这意味着人类编写代码的终结。但在笔者看来,尽管它十分具有开创性,但由此得出软件工程师会遭淘汰结论还为时尚早。
如果你认为GPT-3会让编码人员成为历史,那么你可能从未编写过代码,这是那些以编写代码为生的人早已知道的。
开发人员获得报酬并不是因为编写代码
正如大卫·威廉姆斯所说:“代码不是解决方案,而是要将解决方案实现。”我们得到报酬是因为解决了问题。代码是解决问题的一种手段,但也是一项繁重的工作,也有难以规避的弊端。
对于开发人员来说,编写代码很容易。在多层次的约束条件下,澄清一个问题并解决它要困难得多。这就是编写代码和编写软件的区别。
GPT-3太过复杂,无法扩展
GPT-3需要大量的专业知识,对于个人和小型企业来说太过昂贵。OpenAI也表示:基于API的模型非常庞大,需要大量的专业知识来开发和部署,而且运行起来非常昂贵。除了大公司以外,其他人很难从底层技术中获益。
为什么模型只能通过API而非开源,OpenAI解释了三个原因中的一个。它是巨大的,拥有1750亿个参数的GPT-3使“只”有15亿个参数的GPT-2相形见绌。
鉴于摩尔定律的消亡,在不久的将来,我们无法在私人电脑上看到这样的模型运行。也就是说,笔者认为这是一个暂时性的问题。模型只能变得这么大,而且仍然具有成本效益。在某种程度上,我们不得不开发出更小或更智能的模型,即使这需要完全不同的硬件。
图源:unsplash
我们还不相信人工智能
银行或军事技术中的错误代码显然会造成很大问题,但常规网络应用程序中的安全漏洞也可能是灾难性的(来自Equifax)。
就像自动驾驶汽车,人工智能必须比人类的最高水平还要高,人们才能相信它。自动驾驶汽车的最大问题之一不是技术层面上的,而是哲学上的:它达到怎样的安全系数才算是足够安全?
人们通常将此约束应用于高风险域。但是鉴于2020年代码渗透到大多数技术中,它存在着很大的下行空间。从技术上来看,可以通过查看人工智能的代码来克服这一问题。但是,当人们无法读懂代码时又会发生什么呢?
没有“软件工程师”,所有技术都是黑匣子
如果人类不再编写代码,那我们还可以理解人工智能编写的代码吗?
有了人工智能编写软件,人们就不会花数千个小时来熟练掌握它。如果人们不擅长编写软件了,又该如何审查它们呢。在这种知识流失的情况下,所有技术实质上都变成了黑匣子。人类社会是否愿意走到这一步呢?
在不太遥远的未来,如果第三方拥有的人工智能和人类无法维护的和代码组合起来,有可能会带来巨大的商业风险。
图源:unsplash
GPT-3创建了无代码编码的文本界面
GPT-3创建了一个布局生成器。尽管在无监督学习情况下它确实令人印象深刻,但通过文本放置按钮的能力对于人工智能编写代码来说,这似乎只是微小的胜利。
- 20世纪90年代以来,我们就有了拖拽式网页编辑器,可以生成HTML和CSS。
- 自软件开始使用以来,自动化代码就已经存在并在不断发展。甚至像Ruby on Rails这样的框架,在应用程序开发期间也会尽可能多地搭建通用代码来节省时间。
因此,尽管笔者个人怀疑GPT-3很快会出现更复杂的用例,但我们目前看到的它能做的并不全是软件工程师的工作。
撇开反对的声音,GPT-3是令人难以置信的。如果“真正的人工智能”的标准不会再变高的话,那么GPT-3就已经是“真正的人工智能了”。
不过尽管笔者相信编写代码的编写会继续存在,但花更少的时间编码是一件好事。有无数的代码需要编写,还有无数的问题需要通过技术来解决。如果能将编码托付给人工智能,工程师们能将精力放在处理更重要的事情上,这或许是未来人机合作的新路径。