在人工智能开发领域,最重要的目标莫过于创建真正掌握自然语言处理(natural language processing,NLP)的系统。这是使AI得以广泛应用的关键,因为它需要与(不懂机器语言,不会编程技能的)人类互动。在通往NLP的道路上,可以说,只有先让AI学会说人类语言,才能使它们理解人们到底在说什么。
问题是,为了能让AI用人类语言写作,技术人员已经做出很多努力,却导致了一些比较滑稽的结果。然而,现在一些新的AI文本生成器正在逐步发展地更为成熟,生成的文本几乎与人类书写的文本无甚差别。最新版本的AI文本生成器更为智能,以至于开发人员开始限制对其进行访问,以防它们被滥用。
AI NLP已经发展到新的阶段,即整个行业将不得不开始着手处理随之而来的伦理问题——以免重蹈DeepFake的覆辙,近年来Deepfake的“换脸”黑科技引起的道德问题备受关注。
下面是三个必须解决的潜在问题。
1. 虚假新闻的泛滥
在所有将AI文本生成用于邪恶目的的方式中,有一种对整个世界构成了很大的威胁,即AI可能会被用来大规模制造虚假信息,并以难以想象的方式大肆宣传。这确实会带来巨大风险。有一款叫作Grover的AI工具,其设计者试图用它来检测AI撰写的虚假新闻。然而事实上,Grover也擅长制造虚假新闻。我们无法用完美的假设来说明新的AI文本生成工具将会带来什么挑战——它们既是问题,又是解决方案。
2. 对教育事业的挑战
自互联网出现以来,教育机构就鼓励学生使用网络来获取来自世界各地的知识。问题是,这也导致剽窃事件数量急剧上升,因为许多学生发现剪切和粘贴网上的文本要比形成自己的原创想法容易的多。
互联网也催生了大量的写作服务,学生利用这些服务来减少他们的工作量——而老师们却无法察觉。这就很容易看出较新的AI文本生成可能对教育事业产生的影响,它以一种全新的方式来帮助学生逃避写作和论文。如果AI在这方面得到广泛应用,将会严重危害世界各地的教育成果。
3. 对搜索引擎的危害
由于如今的互联网充斥着各种各样无意义的内容,因此在需要信息时,我们要借助搜索引擎的帮助来判断什么是相关的和有用的。搜索引擎的判断是基于对网站的评估,并根据网站满足用户查询的程度和提供的内容质量来为其打分。然而,在搜索行业,有人担心AI创造的数百万博客帖子、新闻文章和其他内容会影响当前搜索引擎的判断。
有人预计,这种影响就像是更具破坏性的名为article spinning的文章生成系统,该系统迫使谷歌彻底改革其算法以进行反击。专家认为,掌控AI内容浪潮远没有这么快、那么容易完成。
未雨绸缪
迄今为止,对于如何预防上述AI问题,还没有太多讨论——至少在公共领域还没有。毫无疑问,AI技术的主要开发人员正在试图解决他们的新研究可能导致的问题,但是整个科技界也应该开始运用其先进的技能来解决这些问题。否则,一旦将“妖怪”放出来,就很难把它们收回去。鉴于结果会有巨大的破坏性,我们必须尽快找到一些解决办法来避免进入问题雷区。