本文转载自公众号“读芯术”(ID:AI_Discovery)
新冠期间,以人工智能为技术基础的系统表现出了点儿问题。病毒都能感染人工智能了嘛?当然不是,被影响到的是人类。没有了人工介入,人工智能和机器学习系统都不能良好运转了。
人工智能听起来似乎离我们很远,但其实每个人生活中都体验过它。从Netflix的定制化推荐到Spotify的个性化播放歌单,再到像Alexa一样可以管理购物清单和应用的语音助手。这些例子都能说明集成人工智能系统是如何进入人类生活的。
从商业的角度看,很多公司都会在人工智能和机器学习方面大量投资。不管是重要商业过程的自动化,建立多渠道的供应链;还是将聊天机器人授权给顾客联络团队,以人工智能为基础的系统都能大大降低了人工劳动以及企业成本,以获得更高收益率。
看似百毒不侵的AI,却被发现了也有弱点?来自麻省理工学院的作者威尔·道格拉斯近期在文章中提出:在新冠病毒疫情期间,以人工智能为技术基础的系统表现欠佳。病毒不是直接影响人工智能,而是影响了人类。
如果经常用机器学习算法来管理存货、客户支持及其他功能,系统可能会被训练得很好,在无人介入的情况下也能高效运转。但这种说法只能说是部分正确,因为人们并未根据疫情出现的“新常态”来训练机器学习算法。
疫情已经彻底改变了世界,包括供给和需求的模式和一般买方行为。在几天时间内,厕纸、口罩、手部消毒液成了亚马逊上全球搜索频率最高的产品,而手机充电器和乐高这些长久以来爆红产品的人气却大大降低了。
这些惊人的变化都影响了人工智能,很多基于常规行为训练出的机器学习模型突然面临大量的偏差,就无法正常工作了。
疫情前值得关注的人工智能失败案例
人工智能应用在过去的几年内的优化十分显著。然而,当机器因为一个或某些原因无法正常工作时就会出现问题。比如,本应治愈癌症的IBM“沃森肿瘤学”却成了荒谬的产品。
有人发现这个产品给出错误的诊疗建议,这有可能会恶化病人的病情,接着它就被停止使用了。人们这才发现,沃森是基于少数“人造癌症病例”被训练出来的,而不是基于真实的病人数据。即使是建议,也应该基于一些癌症专家的专业知识,而不是任何书面指南和证据。
另一个案例是亚马逊的招聘引擎偏向白人男性。这个模型是基于十年间投递到亚马逊的简历训练出来的,并且以现在的工程师为基准。根本上来说,这个训练后的模型在招聘中偏向男性。据熟悉此问题的人报道,系统会不公平地对待含“女性的”这个词的简历,并且还会给来自两所女子大学的简历降分。
回到当前疫情,以卖消毒剂的公司为例,零售商依靠自动存货管理系统预测出的合作公司(预测算法根据用户行为生成)不再与疫情期间的实际需求相匹配,这会导致严重的供需不平问题。
实际上,当全世界的供应链受到影响,各家公司面对新的需求情况时,人们应该重新考虑运用在销售和开支预算中的人工智能模型了。由于当前的经济和社会情况催生了“新常态”,曾经导入到机器学习模型的数据和假设不仅不再适用,而且还可能导致严重的错误。
人工介入对人工智能的成功至关重要
机器学习系统的质量仅取决于用于训练它的数据的质量,这意味着当今的黑天鹅事件引发了人们去重新想象导入到人工智能——机器学习系统里的训练集合。很多专家认为,训练人工智能不能仅基于单一的最坏情况能,还应基于人类历史上的转折性事件,比如上世纪30年代的大萧条、2007-2008年的金融危机,还有当前的疫情。
人类的监管可以很大程度上攻克人工智能的短板。这几个月来,人们对健康的关注变得更多了,再加上社交媒体上关于疫情不断的真假传闻。很多人不能辨别新闻的真假,这会在现实世界里造成严重的后果。
所有人只知道控诉脸书的算法推送假新闻来影响美国大选,事实上,人类的监管可以制止假新闻的传播,可以通过读者点击新闻来源,辨别故事真假,曝光假新闻,从而阻止其传播。
今天,人类尽管试图让人工智能模仿人类,但还是无法让人工智能在无人监测的情下独自运行。机器终究只是机器,它们并不受道德和社会标准的约束。
好的情况下,人工智能基于训练它的良好数据而表现良好;反之,人工智能也能反映偏见、思考过程、或创造者的道德标准。为了克服这些问题,用不同的数据集合训练人工智能,并且加入人工检测,是很有必要的。未来之路还有很久很长。