麻省理工科技评论:六个问题将决定生成式人工智能的未来

人工智能
互联网的早期也有很多失败的尝试。在改变世界之前,互联网经历了一场泡沫。今天的生成式人工智能也可能会失败,被下一个大事所取代。

“生成式人工智能在 2023 年席卷全球。它的未来以及我们的未来将取决于我们下一步的行动。”

麻省理工科技评论的人工智能高级编辑Will Douglas Heaven近日发布文章《These six questions will dictate the future of generative AI》,介绍了生成式人工智能(generative AI)在2023年的发展和影响,以及未来面临的六个关键问题。这篇文章是一篇很有价值的科技评论,它对生成式人工智能的现状和未来进行了全面和深入的探讨,提出了一些重要的问题和建议。

生成式人工智能(Generative AI)是能够自动创造出新的内容和产品的人工智能技术,它利用了深度学习、神经网络、自然语言处理等先进的算法和模型,能够模仿和超越人类的创造力和智慧。生成式人工智能已经在各个领域展现了惊人的能力和潜力,比如音乐、艺术、文学、设计、游戏、医疗、教育、商业等,它为人们提供了更多的便利和乐趣,也为社会带来了更多的价值和创新。

生成式人工智能面临着许多的挑战和问题,比如数据的质量和来源,模型的可靠性和可解释性,以及伦理和法律的约束和保护。这些问题不仅影响着生成式人工智能的发展和应用,也关系到人类的利益和未来。因此,我们需要对生成式人工智能有一个全面和深入的了解,探讨它的优势和劣势,分析它的机遇和风险,制定合理的规则和标准,以确保它的负责任使用和可持续发展。

 01  我们会让生成式人工智能减轻偏见的问题吗?

文章首先指出,生成式人工智能中的偏见是由于使用了反映了社会歧视的真实数据来训练模型,导致模型在生成内容时也会重现和加剧这些歧视,比如在聊天机器人、图像生成器、面部识别、招聘算法等方面。要从根本上解决偏见问题,需要新的数据集或新的训练方法,但这些都需要很长的时间和工作。文章介绍了一些目前的研究方向,比如使用人类反馈的强化学习、使用合成数据集、使用多样化和跨领域的数据等,来减少生成式人工智能中的偏见。

偏见已经成了人工智能带来的伤害的代名词,这是有道理的。现实中的数据,特别是从网上抓取的文本和图片,都充满了偏见,从性别刻板印象到种族歧视。用这些数据训练的模型就会学习这些偏见,然后在使用的时候又会加强这些偏见。

聊天机器人和图像生成器往往把工程师描绘成白人男性,护士描绘成白人女性。黑人有被警察部门的面部识别程序误认的风险,导致被错误逮捕。招聘算法偏向于男性而不是女性,使得原本想要解决的偏见更加深入。

如果没有新的数据集或新的训练方法(这两者都需要很多年的工作),偏见问题的根源就会一直存在。但这并没有阻止它成为研究的热门话题。OpenAI就试图用一些技术,比如人类反馈的强化学习(RLHF),来让它的大型语言模型变得更少偏见。这样就可以让模型的输出更接近人类测试者喜欢的文本。

其他的技术涉及到使用合成数据集。比如Runway,一个为视频制作提供生成模型的创业公司,就用一些合成数据,比如人工生成的不同种族、性别、职业、年龄的人的图片,来训练一个受欢迎的图像生成模型Stable Diffusion的一个版本。这家公司报告说,用这个数据集训练的模型可以生成更多的深肤色的人和女性的图片。如果请求一个商人的图片,输出就会包括戴头巾的女性;如果请求一个医生的图片,输出就会包括肤色和性别多样的人。

批评者认为这些解决方案只是在破损的基础模型上贴上创可贴,掩盖而不是修复问题。但是Geoff Schaefer,Smith在Booz Allen Hamilton的同事,也是这家公司的人工智能责任主管,认为这样的算法偏见可以以一种有益的方式暴露社会偏见。

举个例子,他指出,即使从数据集中删除了关于种族的明确信息,种族偏见仍然可以影响数据驱动的决策,因为种族可以从人们的地址推断出来,揭示了隔离和住房歧视的模式。“我们把一堆数据放在一起,这种相关性就变得非常明显,”他说。

Schaefer认为这一代的人工智能也会发生类似的事情:“这些社会上的偏见都会显现出来。”他说,这将导致更有针对性的政策制定。

但是很多人会对这种乐观态度感到不满。问题暴露出来并不意味着它一定会得到解决。政策制定者仍然在努力解决多年前就暴露出来的社会偏见,比如在住房、招聘、贷款、警察等方面。与此同时,个人还要承受后果。

偏见将继续是大多数生成式人工智能模型的固有特征。但是通过一些变通方法和提高意识,可以帮助政策制定者解决最明显的例子。

 02  人工智能将如何改变我们应用版权的方式?

AI将如何改变我们对版权的运用?许多艺术家和作家(还有编程人员)不满科技公司未经同意就从他们的作品中获利,于是对OpenAI、微软等公司提起集体诉讼,指控他们侵犯版权。Getty也起诉了Stability AI,这是一家制作图像的公司,它的产品叫Stable Diffusion。

莎拉·西尔弗曼和乔治·R.R.马丁等名人的诉讼引起了媒体的关注。这些案件将重新定义在美国,什么算是对他人作品的合理使用,什么不算。但是别急着看结果。专门从事知识产权许可的律师事务所Gunderson Dettmer的合伙人凯蒂·加德纳说,法院要做出最终判决还需要几年时间。她说到那时,“这项技术已经在经济中根深蒂固,无法逆转。”

与此同时,科技行业正以惊人的速度利用这些涉嫌侵权的技术。加德纳说:“我不认为公司会等着看。”“虽然有一些法律风险,但是如果不跟上,风险会更大。”

一些公司已经采取措施,限制侵权的可能性。OpenAI和Meta声称已经推出了一种让创作者从未来的数据集中删除他们的作品的方法。OpenAI现在禁止DALL-E的用户请求以活着的艺术家的风格生成图像。但是,加德纳说,“这些都是为了支持他们在诉讼中的论点。”

谷歌、微软和OpenAI现在提供保护他们的模型用户免受潜在法律诉讼的服务。微软的GitHub Copilot生成式编程助手,就是因为使用了一些软件开发者的代码而被起诉的,它的赔偿政策原则上会保护那些在法院审理期间使用它的人。“我们会承担这个负担,让我们的产品用户不用担心,”微软CEO萨提亚·纳德拉告诉《麻省理工科技评论》。

与此同时,新的许可协议也在出现。Shutterstock和OpenAI签订了一份为期六年的协议,允许后者使用其图像。Adobe也声称,它自己的图像生成模型Firefly,只使用了经过许可的图像,或者来自其Adobe Stock数据集的图像,或者已经不受版权保护的图像。但是,一些Adobe Stock的贡献者说,他们没有被征求意见,对此很不满。

怨气很大。现在艺术家们用自己的技术反击。有一种工具叫Nightshade,它可以让用户以一种人类无法察觉的方式改变图像,但是对机器学习模型却是致命的,让它们在训练过程中错误地分类图像。预计在线分享和重用媒体的规范会发生很大的调整。高调的诉讼仍将引起关注,但这不太可能阻止公司继续开发生成式模型。围绕道德数据集的新市场将出现,公司和创作者之间的猫鼠游戏也将展开。

 03  它将如何改变我们的工作?

生成式人工智能正在威胁我们的工作,不仅是蓝领,也包括白领,比如数据分析师、医生、律师和记者。生成式人工智能可以通过大型语言模型来完成一些需要高水平的考试、总结、写作等任务。但这并不意味着生成人工智能真的很聪明,也不意味着它们可以取代所有的专业角色。

Will Douglas Heaven在文章中介绍了一些使用生成人工智能的案例,比如波士顿咨询集团的顾问实验,Air Street Capital 的分析报告,以及Runway 的视频制作。文章展示了生成式人工智能可以帮助工作人员提高效率、质量、创新和满意度。文章也提到了一些使用生成式人工智能的注意事项,比如要避免过度依赖、要检查错误、要尊重版权等。

生成式人工智能对办公桌工作以外的影响,比如图像和视频制作模型可以在不需要人类参与的情况下制作大量的图片和电影。文章指出,这将引发一些版权、道德和社会的问题,比如2023年的美国作家和演员的罢工。

生成式人工智能对工作的总体影响,生成人工智能不是取代工人,而是赋予工人权力。技术变革会带来新的就业机会,而不是造成大规模失业,技术变革会带来一些痛苦和不平等,需要我们思考我们想要的工作的意义和价值。

生成人工智能会影响哪些类型的工作,取决于工作的性质和特点,以及生成式人工智能的能力和局限。一般来说,生成式人工智能会影响那些需要大量的重复和规范的工作,比如数据的收集、处理、分析、可视化等,因为这些工作可以很容易地被生成式人工智能的算法和模型所实现和优化,而且生成式人工智能可以比人类更快、更准、更全地完成这些工作。生成式人工智能也会影响那些需要高度的创造力和智慧的工作,比如音乐、艺术、文学、设计、游戏、医疗、教育、商业等,因为这些工作可以很好地利用生成式人工智能的生成能力和生成潜力,而且生成式人工智能可以比人类更多、更新、更好地创造出这些内容和产品。生成式人工智能还会影响那些需要跨领域和跨媒介的工作,比如从文本生成图像,从图像生成音频,从音频生成视频等,因为这些工作可以很方便地使用生成式人工智能的生成技术和生成工具,而且生成式人工智能可以比人类更灵活、更自由、更精确地生成出这些内容和产品。

 04  AI造假的风险有多大?

2023年,生成式AI引起了广泛的关注和担忧。一些用AI制造的假照片在网上疯传,有些甚至涉及教皇、特朗普和五角大楼等敏感人物和地点。这些虚假信息不仅难以辨别,而且可能影响选举结果。OpenAI自己也承认,它的技术可能被用于制造有害的宣传。为了应对这些问题,拜登政府和欧盟都出台了相关的规定和措施,要求AI生成内容加上标识和水印,并保护用户免受聊天机器人的欺骗。同时,美国还将对可能危及国家安全的AI进行审计。但是,这些措施是否有效,是否及时,是否合理,还有待观察。一些AI专家和企业家对AI的未来和风险有不同的看法,有些担心AI会导致人类灭绝,有些认为这是荒谬的,有些认为应该放慢AI的发展,有些认为应该加快AI的创新。他们之间的争论还没有结束,而生成式AI的使用和滥用也还在继续。

2023年最火的三张照片是:教皇穿着Balenciaga的羽绒服,特朗普被警察摁倒在地,五角大楼爆炸。全都是假的,但却被数百万人看到和转发。

用生成式模型制造假文本或假图像比以往更容易。很多人警告说,虚假信息泛滥。OpenAI参与了一项研究,揭示了它自己的技术可能被用于假新闻活动的多种滥用方式。在2023年的一份报告中,它警告说,大型语言模型可能被用来制造更有说服力的宣传,而且难以识别,而且规模庞大。美国和欧盟的专家已经表示,选举面临风险。

拜登政府在10月份发布的关于人工智能的行政命令,将AI生成内容的标注和检测作为重点,这并不令人意外。但是,这项命令没有法律上强制要求工具制造商将文本或图像标记为AI的创作。而且最好的检测工具还不够可靠。

欧盟的AI法案本月达成一致,并且走得更远。这项全面的立法的一部分要求公司给AI生成的文本、图像或视频加上水印,并在人们与聊天机器人互动时明确告知。而且AI法案有牙齿:规则是有约束力的,违反者将面临高额罚款。

美国也表示,它将审计任何可能对国家安全构成威胁的AI,包括选举干预。这是一个很好的步骤,Benaich说。但是,就连这些模型的开发者也不知道它们的全部能力:“政府或其他独立机构能够强制公司在发布模型之前进行全面测试的想法似乎不现实。”

问题在于:在技术被使用之前,我们不可能知道它会被滥用的所有方式。“2023年有很多关于放慢AI发展的讨论,”Schaefer说。“但是我们持相反的观点。”

除非这些工具被尽可能多的人以尽可能多样的方式使用,否则我们无法使它们变得更好,他说:“我们不会理解这些奇怪的风险会以怎样的细微方式显现,或者什么事件会引发它们。”

随着使用的增加,新的滥用形式将继续出现。可能会有一些引人注目的例子,可能涉及选举操纵。

 05  我们会认真对待它的成本吗?

生成式AI的开发不仅需要大量的数据和算力,还需要大量的人工干预和审核。这些工作往往由一些看不见的、低收入的工人来完成,他们的劳动条件和心理健康都受到了忽视。2023年,OpenAI因为雇佣肯尼亚的工人来过滤它的生成式模型的有害内容而受到了媒体的曝光和批评。这引起了公众对生成式AI的人力成本的关注和质疑。另一方面,生成式AI的开发也消耗了大量的能源,导致了环境污染和气候变化。英伟达等公司因为提供了训练AI模型的硬件而获得了巨大的收益,但也面临着节能和创新的压力。公众对AI的劳动和环境成本的认识将增加,给科技公司带来压力。但是,在这两方面取得显著的改善还需要时间和努力。

AI的代价有多高?生成式AI的开发代价,无论是人力还是环境,都不容忽视。看不见的工人问题是一个公开的秘密:我们免受了生成式模型能产生的最糟糕的东西,部分原因是有一群隐藏的(通常报酬很低的)劳工,他们给训练数据打标签,还要在测试过程中清除有毒的、有时是创伤性的输出。这些是数据时代的血汗工厂。

2023年,OpenAI在肯尼亚的工人使用情况受到了《时代》和《华尔街日报》等主流媒体的关注。OpenAI想要通过建立一个过滤器来改进它的生成式模型,这个过滤器可以隐藏仇恨的、淫秽的和其他冒犯性的内容,不让用户看到。但是,要做到这一点,它需要人们找到并标记大量这样的有毒内容的例子,以便它的自动过滤器能够学会识别它们。OpenAI雇佣了外包公司Sama,而Sama据称又使用了在肯尼亚的低薪工人,而且给他们的支持很少。

随着生成式AI成为一个主流的问题,人力成本将更加突出,迫使建造这些模型的公司解决全世界被雇佣来帮助改进他们技术的工人的劳动条件。另一个巨大的成本,就是训练大型生成式模型所需的能源,这个数字在情况好转之前还会上升。8月份,英伟达宣布2024年第二季度的收入超过135亿美元,比去年同期翻了一番。其中大部分收入(103亿美元)来自数据中心,换句话说,就是其他公司使用英伟达的硬件来训练AI模型。

“需求非常惊人,”英伟达CEO黄仁勋说。“我们正处于生成式AI的起飞阶段。”他承认能源问题,并预测这次繁荣甚至可能推动计算硬件的类型发生变化。“世界上绝大多数的计算基础设施都必须节能,”他说。

公众对AI的劳动和环境成本的认识将增加,给科技公司带来压力。但是不要指望在这两方面很快有显著的改善。

 06  AI末日论会影响政策制定吗?

AI末日论——认为智能机器的创造可能带来灾难性,甚至是世界末日的后果——一直是AI的一个暗流。但是高潮迭起的炒作,加上AI先驱杰弗里·辛顿在5月份宣布他现在害怕他自己帮助建造的技术,让它浮出水面。

2023年,几乎没有什么问题比这个更有争议。像辛顿和另一位图灵奖得主、创立Meta AI实验室的雅恩·勒昆这样的AI名人,对AI末日论持不同的看法,他们在社交媒体上公开争吵,相互挖苦。

辛顿、OpenAI CEO萨姆·奥尔特曼等人建议,(未来的)AI系统应该有类似于核武器的安全措施。这样的话引起了人们的注意。但是在7月份他与人合写的一篇《Vox》文章中,美国科学家联合会核信息项目的项目经理马特·科达,谴责了这些“混乱的类比”和它们引发的“不消耗卡路里的媒体恐慌”。

我们很难分辨真假,因为我们不知道发出警告的人的动机,Benaich说:“看起来很奇怪,很多人靠这些东西发了大财,而且很多人还是那些主张更大控制的人。就像是说,‘嘿,我发明了一种很强大的东西!它有很多风险,但我有解药。’” 有些人担心这种恐吓的影响。在X上,深度学习的先驱吴恩达写道:“我对AI未来的最大担忧是,如果被夸大的风险(比如人类灭绝)让科技说客通过了压制开源和扼杀创新的严苛法规。”这场辩论也让资源和研究人员从更紧迫的风险,比如偏见、就业动荡和虚假信息转移了注意力。

“有些人推动存在风险,因为他们认为这会让他们自己的公司受益,”谷歌的有影响力的AI研究员弗朗索瓦·乔莱说。“谈论存在风险既突出了你有多么有道德意识和责任感,又转移了对更现实和紧迫问题的关注。”

Benaich指出,有些人一边敲响警钟,一边为他们的公司筹集1亿美元。“你可以说,末日论是一种筹款策略,”他说。

恐吓将会平息,但对政策制定者的议程的影响可能会持续一段时间。呼吁重新关注更直接的危害将继续。

 07  附加问题:人工智能的杀手级应用还没出现

OpenAI推出了一款聊天机器人ChatGPT,它基于OpenAI之前的大型语言模型GPT-3.5,但做了一些改进,使它更适合对话和回答问题。这款聊天机器人引起了很多人的兴趣和好奇,被认为是人工智能领域的一次突破。OpenAI的联合创始人兼首席科学家Ilya Sutskever说,他和他的团队经常用ChatGPT来做各种事情,比如查单词、查事实、规划假期、学编程等。他说,人工智能是最火的东西,也是科技和经济的核心。但是,OpenAI没有给ChatGPT设定一个明确的用途,而是让用户自由发挥。这让很多人感到困惑和失望,因为他们发现ChatGPT并没有什么惊人的功能,也没有什么杀手级的应用。谷歌的员工也对他们自己的聊天机器人Bard表示怀疑,不知道它有什么价值。投资公司红杉资本的数据显示,生成式人工智能的应用还没有达到YouTube和Instagram等流行服务的水平,用户的忠诚度很低。生成式人工智能还面临着很多问题和挑战,比如利基市场、竞争对手、技术变革等。正如OpenAI的另一位联合创始人兼首席执行官Sam Schaefer所说,我们必须用前所未有的方式来解决这些问题。

ChatGPT 本来差点没上线。OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 对它的准确性不满意。其他人觉得它没什么进步。其实,ChatGPT 只是把 OpenAI 之前开发的大型语言模型 GPT-3.5 和一些有趣的改进(比如更有对话感和更贴切的回答)结合起来,做成一个方便的包。“它很强大,也很好用,”Sutskever 说。“这是人工智能领域第一次让外行人看到人工智能的进步。”

ChatGPT 的炒作还没结束。“人工智能是最火的东西,”Sutskever 说。“它是科技和经济的核心。我觉得我们会一直对人工智能的能力感到惊讶。”

但既然我们知道了人工智能能做什么,那么它的用途是什么呢?OpenAI 没有考虑这项技术的实际用途。他们发布 ChatGPT 时就说,随你怎么用。从那以后,大家都在想这个问题。

“我觉得 ChatGPT 很有用,”Sutskever 说。“我常用它来做各种事。” 他说他用它来查单词,或者帮他表达得更清楚。有时他用它来查事实(虽然它不一定对)。OpenAI 的其他人用它来规划假期(“世界上最好的三个潜水地点是哪里?”)或者学编程或者找 IT 支持。

有用,但不够惊艳。大部分例子都可以用现有的工具(比如搜索)来做。同时,据说谷歌的员工对他们自己的聊天机器人 Bard(现在由谷歌的 GPT-4 对手 Gemini 支持)的实用性有疑问。“我还在想,对于LLM来说,Bard 真的有什么用?” 巴德的用户体验主管 Cathy Pearl 8 月份在 Discord 上写道。“就像真的有改变。还不知道!”

没有杀手级应用,就没有“哇”效应。投资公司红杉资本的数据显示,虽然 ChatGPT、Character.ai 和 Lensa 等人工智能应用可以让用户制作自己的风格化(和性别歧视)头像,但它们还是比 YouTube 和 Instagram 等流行的服务更容易失去用户。抖音也是。

“消费科技的规律还是一样,”贝奈奇说。“会有很多试验,炒了几个月就死了。”

当然,互联网的早期也有很多失败的尝试。在改变世界之前,互联网经历了一场泡沫。今天的生成式人工智能也可能会失败,被下一个大事所取代。

不管怎样,既然人工智能已经成为主流,利基问题也变成了大家的问题。正如谢弗所说,“我们必须用前所未有的方式来解决这些问题。”

参考资料:https://www.technologyreview.com/2023/12/19/1084505/generative-ai-artificial-intelligence-bias-jobs-copyright-misinformation/


责任编辑:武晓燕 来源: 大噬元兽
相关推荐

2023-12-27 14:26:21

2020-08-17 17:12:07

戴尔

2023-06-19 14:00:00

数字化转型

2019-02-28 09:47:24

技术研发指标

2018-01-03 09:17:56

2018-02-25 14:10:33

2023-09-18 10:21:35

生成式人工智能GenAI

2017-02-24 07:37:30

2018-02-23 10:02:25

技术阿里巴巴基因

2020-07-21 10:55:42

技术研发指标

2020-04-29 09:34:54

人脸识别技术安全

2020-02-27 09:27:21

技术研发指标

2022-01-26 11:09:46

人工智能量子数字世界

2015-11-16 09:54:02

大数据机器人技术趋势

2015-04-16 09:41:01

2020-10-11 20:10:59

技术人工智能麻省理工

2011-05-23 14:16:32

2018-10-05 22:56:43

人工智能AI会话式人工智能

2018-03-15 22:32:47

谷歌CPU深度学习
点赞
收藏

51CTO技术栈公众号