如果将人们的想象力用在广泛的临床应用,那么医疗人工智能还有很长的路要走。
加拿大多伦多大学的研究人员在7月10日发表在“医学互联网研究杂志”上的一篇论文中,指出了人工智能在医疗保健行业应用面临的主要障碍。
多伦多大学的JamesShaw博士及其同事根据NASSS框架比较了人工智能与其他技术的市场渗透率,NASSS框架将机器学习用例分为自动化和决策支持两大类。而NASSS是Nonadoption、Abandonment、Challenges to Scale-up、Spread、Sustainability的首字母缩略词。
建议决策支持应用程序将引导自动化,至少在短期内如此。遵循NASSS框架,他们概述了阻碍主要决策支持人工智能实施的各种问题。为此强调的是:
1.有意义的决策支持
Shaw解释说,“临床决策是一个复杂的过程,涉及各种数据源的整合,其中包括隐性和明确的智能模式。”
他补充说,“为了更直观地通知这个决策过程,人工智能开发人员正在添加数据可视化等通信工具。这些通信工具的性质和价值是实现过程的核心,有助于确定算法输出是否和如何被纳入日常惯例。”
2.可解释性
医疗保健的人工智能模型如何实现其结果?Shaw及其同事指出,即使对创建它们的计算机科学家来说,答案仍然是未知的。
Shaw说,“缺乏对这些机制和环境的理解,这对机器学习对医疗保健利益相关者的可接受性提出了挑战。尽管可解释性问题与决策支持明确相关,但如此处所解释的那样使用机器学习案例。”
他补充说,“这一问题可能更加深刻地应用于以自动化为重点的用例,因为它们在医疗保健领域占据重要地位。”
3.隐私和同意
Shaw指出,目前缺乏有关正确使用可穿戴设备数据的立法和指导。同时,许多与健康相关的应用程序在使用过程中产生的数据流中存在着不明确的一致性过程。
除了这两个明显的问题之外,当与其他数据集链接时,可以重新识别其他的数据。他表示:“这些因素为那些寻求将健康数据用于机器学习应用开发的计划带来了重大风险,可能遭遇来自医疗保健提供商的巨大阻力。”
4.算法偏差
Shaw表示,“算法只能和训练它们的数据一样好。”
他说,“如果训练数据部分或不完整的,或只反映给定人口的子集,则生成的模型将仅与数据集中表示的人群相关。这提出了关于数据来源的问题,并代表了一系列与偏差相关的问题,这些偏差内置于用于决策的算法中。”
5.可扩展性和面临障碍
随着人工智能应用在医疗保健领域的迅速发展,一些算法输出不可避免地会混淆、矛盾或以其他方式与他人对抗。
Shaw表示,“这种相互作用的影响无法提前预测,部分原因是相互作用的特定技术尚不清楚,可能在常规护理过程中尚未实施。我们建议实施科学家需要考虑机器学习在医疗保健中的实施和规模的意外后果,为患者、医疗保健提供者、公众的安全带来更大的复杂性和更大的风险。”
Shaw和其团队还围绕企业角色和医疗保健工作不断变化的性质指出了一些障碍。
在总结他们的观察和预测时,Shaw表示机器学习在医疗保健领域的未来是积极但不确定的。他们认为,在很大程度上,接受和采用这项技术取决于所有医疗保健利益相关者、患者、提供者,这与人工智能开发者一样。
Shaw指出,“机器学习的应用变得更加复杂,对数据可视化等通信策略的投入也在增长,机器学习可能变得更加用户友好和更有效。如果实施,科学界要以有利于所有人的方式促进机器学习的采用,那么提出的问题将在未来几年内得到充分关注。”