作者丨Tristan Greene
译者 | 布加迪
审校丨Noe
软件自由保护协会(SFC)是一家由广大开源倡导者组成的非营利性社区,近日在一篇措辞严厉的博文中宣布退出GitHub,还敦促成员和支持者强烈谴责该平台。
起因:SFC与GitHub闹得不愉快源于前者指责:微软和OpenAI用根据开源许可证发布的数据来训练Copilot这个人工智能系统。
开源代码可不像捐款箱:你想取多少就完全可以取多少,并以你选择的任何方式使用它。开源代码更像是照片。虽然摄影师并不对你就使用其某张照片收取费用,但你依然需要注明出处,在道德上和法律上向对方表示应有的感谢。
据SFC网站上的一篇博文声称,Copilot在使用别人的代码片段时根本没有这么做:
这让人不由得想起了GitHub长期存在的问题,以及我们必须共同抛弃GitHub的主要原因。我们已经从Copilot、GitHub的核心托管服务以及它努力开展的几乎所有工作看到,GitHub的行为比同行恶劣得多。我们不认为亚马逊、Atlassian、GitLab或其他任何营利性托管服务商的做法堪称完美。然而,如果将GitHub的行为与这些同行的行为作一番比较,就会发现GitHub的行为要糟糕得多。
背景:GitHub是全世界事实上的开源代码存储库。它好比YouTube、Twitter和Reddit的结合体,只是面向的群体是程序员及他们编写的代码。
当然,外面有其他选择。但是从一个代码存储库生态系统换成另一个生态系统与将Instagram换成TikTok并不是一回事。
微软在2018年斥资逾70亿美元收购了GitHub。从那以后,微软利用其作为OpenAI主要赞助商的地位,共同致力于开发Copilot。
要访问及使用Copilot,唯一的方法是通过微软的特别邀请或付费订阅。
SFC及其他开源倡导者之所以深感不安,是由于微软和OpenAI本质上使用别人的代码大发其财,还剥夺了那些使用代码的人给予应有感谢的能力。换句话说:微软在剽窃人们的劳动成果,剥夺他人的功劳,并通过算法将其出售给他人。
解决办法:杀死Copilot。或者,微软和OpenAI不妨打造一台时间机器,回到过去,标记Copilot数据库中的每一个数据点,以便可以构建第二个版本的模型,对他人编写的每行代码给予应有的感谢。
但是面对你可以随心所欲的监管环境,利用他人的劳动成果总是比关心自己提供的产品和服务符合伦理道德要来得容易。
说到人工智能让人类生活更轻松的具体实例,GitHub的Copilot首当其冲。一些单调乏味的工作可能需要开发人员花数小时来处理,Copilot却可以使它们变得就像摁按钮或输入几行文本一样简单。
这方面有几个先例。GPT-3和Dall-E使用人类生成的媒体的数据库来生成新的输出。
但是这些生成器与Copilot有一个关键的区别。以大画家莫奈的风格画一只鸭子或者让GPT-3给你讲一则关于快乐狗的故事是一回事。从数据库中的文件原封不动地逐行重复代码片段,不是按照别人的风格编写代码,而是公然盗用别人的代码。
有时可能比这来得还要微妙。当然,有时解决代码编写问题的方法不止一种。编写代码常常既是一门科学,又是一门艺术。
然而就因为你可以用iPhone拍下落日的照片,并不意味着就可以盗用别人的日落照片,声称这是自己拍的照片,然后卖给别人。
到头来,这并不重要。Copilot大受欢迎。开发社区似乎绝对喜欢它。它在舆论界得到的褒奖远比批评多得多。
暂且不说它最终会对开源社区产生什么影响。如果你完全在无偿工作,结果只是为微软赚钱,谁需要开源存储库?
关键是,你还别无选择。没有选择加入或选择退出一说。微软和OpenAI拥有你的数据,没有什么能阻止它们用你的数据做它们想做的任何事情。抵抗是徒劳无益的。
原文标题:Copilot works so well because it steals open source code and strips credit
链接:https://thenextweb.com/news/github-copilot-works-so-well-because-it-steals-open-source-code-strips-credit