新的一年正向我们招手。延续优良的革命传统,又到了发布最新一期AI专家预测报告的时候。各位受访专家将结合自己的所感所知、实验室发现以及企业动态为我们预测新一年中人工智能技术的发展方向。
闲言少叙,我们马上进入本期预测主题。
Arash Rahnama博士, Modzy公司应用AI研究负责人:
正如AI系统的进步向前飞速发展一样,敌对方欺骗AI模型以诱导其做出错误预测的能力也在不断增强。深度神经网络极易受到其输入素材(对抗AI)所施加的细微对抗因素的干扰,而且人眼几乎无法感知到素材中的异常。这类攻击无疑给AI模型在关键任务环境中的成功部署构成了巨大风险。按照目前的发展速度,除非组织立即在AI安全工作中建立起主动对抗防御体系,否则2021年很有可能成为重大AI安全事件频发的元年。
2021年也将成为可解释性全面实现的一年。随着组织不断集成AI方案,可解释性将成为机器学习管道中建立用户信任的核心前提。只有切实理解机器学习根据真实数据做出判断的依据,才能在人与模型之间建立起可靠的信任关系。反之,我们将无法对基于AI的决策产生信心。总而言之,可解释性对于AI应用迈入下一阶段将起到至关重要的作用。
可解释性与之前提到的对抗性攻击训练方法相结合,同样会在人工智能领域掀起一场新的革命。可解释性将帮助我们了解哪些数据影响到模型预测,特别是偏差的产生原因——而这些信息将可被用于训练出稳定性更强、可靠性更高、足以抵御攻击影响的健壮模型。这种关于模型运作原理的战术性知识,将帮助我们在整体上提升模型质量并保障模型安全。AI科学家们将重新定义模型性能,其中涵盖的不再只有预测准确性,同时也包含对不确定性环境变化的判断偏差、稳健性以及通用能力等指标。
Kim Duffy博士, Vicon公司生命科学产品经理
仅着眼于未来一年,我们是很难对人工智能(AI)与机器学习(ML)的发展态势做出准确预测。例如,在临床步态分析当中,研究人员着眼于患者的下肢运动以识别导致街及跑步障碍问题的根本原因。在这方面,AI与ML等技术的应用尚处于起步阶段。Vicon公司在我们最近的《对人类运动的深入了解》报告中强调了这一点,并提到要真正利用这些方法在临床步态研究领域有所进步,至少还需要数年时间。有效的AI与ML方法需要辅以大量数据,才能配合适当的算法有效训练出模型的趋势与模式识别能力。
2021年,我们可能会看到更多临床医师以及生物力学研究人员在数据分析层面采用AI与ML方法。过去几年以来,我们已经看到步态研究领域出现了越来越多的AI与ML学术文献。相信这股势头将在2021年得到延续,临床与研究小组之间将开展更多合作,借此开发出有助于自动解释步态数据的机器学习算法。最终,这些算法有望加快在临床层面提出干预措施的速度。
需要再次强调,机器学习的实际成果与收益不大可能在这么短的时间内得以显现。但在处理步态数据时,我们仍会越来越多地考虑并采用这些方法。例如,步态与姿态研究协会主席在最近探讨量化运动分析的临床影响时就表示,有必要在大数据基础之上使用机器学习等方法,借此提升量化步态分析的研究效率,进而为临床决策提供更全面的解读思路并减少主观性因素。步态与临床运动分析学会也对AI/ML这一新兴技术组合大加赞赏,这同样会鼓励更多临床研究团体将二者纳入研究范畴。
Joe Petro, Nuance Communications公司CTO
2021年,AI技术将逐步退出炒作周期,未来AI解决方案的承诺、主张与发展愿景将更多体现在可证明的进步以及可量化的产出当中。结果就是,将有更多组织将更多精力投入到解决特定问题之上,并切实构建解决方案以提供可转化为实际投资回报的成果,而不再停留在PPT演示或者为了研发而研发的层面。在新一年中,谁能帮助客户切实解决亟待处理的复杂性挑战,谁就能在AI/ML领域保持竞争优势。这样的客观现实不仅会影响到科技企业的研发资金投入方向,也会影响到技术从业者规划学习路线及职业生涯的实际思路。
随着AI在技术领域的各个层面不断渗透,人们也会越来越关注AI道德问题,并深刻理解AI产生意外偏见性结果时所暴露出的深刻内涵。消费者将更加了解自己的数字足迹,了解自己的个人数据如何被交互系统、行业及品牌所使用。这意味着与AI供应商合作的企业需要提高对客户数据处理方式审查工作的关注力度,同时明确是否存在利用个人数据牟利的第三方行为。
Max Versace博士, Neurala公司联合创始人兼CEO
新的一年,我们将能够以成本更低廉、体型更小巧的硬件部署AI解决方案。2020年是充满动荡的一年,面对难以捉摸的经济前景,之前的资本密集型复杂解决方案必然会朝着轻量化(也许只体现在软件层面)低成本解决方案转移。这种方式将帮助制造商在短期之内实现投资回报,且极大降低前期投入需求。这还将赋予企业更强大的供应链与客户需求波动性应对能力——面对新冠疫情的深远影响,这种灵活性已经成为全球范围内各个行业争取生存的必要能力。
人类也将把注意力转向人工智能“为什么”会做出自己的判断。在讨论AI的可解释性问题时,大家普遍比较关注偏见及其他道德问题。但随着AI的发展,在结果变得更为精确、可靠的同时,人们也会更多质疑AI做出判断的依据。我们不可能完全相信自己无法理解的自动系统。以制造场景为例,AI不仅需要准确判断产品属于“良品”或者“次品”,还要拿出令人信服的理由。只有这样,人类操作员才会对此类系统建立起信心与信任感,最大程度与其建立合作。
新的一年,新的预测。一切展望的答案,都将在来年揭晓;准确与否,让我们拭目以待。
最后,祝大家新年快乐!