最近的研究表明,基于AI的深度学习模型能够根据胸部X光片等放射学图像来确定患者的种族,而且比人类学专家具有更高的准确性。凯捷咨询公司首席数据科学家Sandeep Sharma指出,AI应用于个人数据收集和分析时,存在侵犯个人隐私的巨大风险。同时由于使用AI的组织之间缺乏对隐私的足够了解,更是加剧了这种威胁。
总体来看,当前企业组织的涉及个人信息类AI应用存在几大显著问题:一是将数据用于收集以外的目的;二是收集不属于数据收集范围的个人信息;三是存储数据超过必要的时间。这些都可能会违反有关数据隐私的法规,比如欧盟的通用数据保护条例(GDPR)等。
AI应用加剧数据隐私暴露风险
基于AI的系统所带来的风险涉及多个方面。例如,英国Burges Salmon律师事务所的技术团队高级助理Tom Whittaker认为,需要考虑到AI潜在的偏见。AI系统依赖于数据,涉及到个人数据时,这些数据或模型的训练方式可能会无意中产生偏差。
与此同时,AI系统也有可能受到破坏,个人的隐私信息也有可能被泄露。Whittaker指出,一部分原因是AI系统依赖于大型数据集,这可能使它们成为网络攻击的主要目标。AI系统输出的数据有可能直接或与其他信息结合时暴露个人的隐私信息。
随着AI系统用于越来越多的应用程序,社会也面临更普遍的风险。信用评分、犯罪风险分析和移民裁定就是其中的的一些例子。如果AI或其使用方式存在缺陷,人们可能会受到比其他情况下更大的隐私侵犯。”
AI也可以对数据隐私产生积极影响
然而也有一些专家指出,AI可以对隐私产生积极影响。它可以用作隐私增强技术(PET)的一种形式,以帮助组织通过设计义务遵守数据保护。
Whittaker对此解释说,“AI可用于创建复制个人数据模式和统计属性的合成数据。AI还可以通过加密个人数据、减少人为错误以及检测潜在的网络安全事件,将侵犯隐私的风险降至最低。”
一些国家政府看到了AI好的一面。比如爱沙尼亚经济事务和通信部政府首席数据官Ott Velsberg就表示,AI在各行业领域发挥着关键作用,爱沙尼亚政府的目标是到2030年实现AI的广泛应用。
他介绍,为了在应用的同时确保遵守数据保护法规,爱沙尼亚开发了一项服务,使人们能够与外部利益相关者共享政府持有的数据。此外爱沙尼亚推出了一个数据跟踪器,可以在政府门户网站上查看个人数据的处理情况。
隐私法规遵从是AI落地应用的关键
AI目前受到包括GDPR在内的法规的监管,但未来还会出台更多的隐私法规。目前,欧盟拥有法律上最强大的AI相关隐私保护。
Whittaker指出,欧盟还计划引入更多针对AI的法规,旨在禁止某些AI系统滥用数据,并对任何高风险的系统规定义务,规定如何存储和使用数据。这些法规与那些在欧盟市场部署AI系统的人员有关,将影响那些向欧盟销售或部署AI解决方案的企业。
为此,在尝试管理AI的风险时,企业领导者应当了解当前和计划中的AI监管政策,不遵这些守法规可能会导致严重后果。报道显示,违反欧盟提议的AI法案规定的高风险义务,可能面临高达2000万欧元或高达年营业额4%的罚款。
首先,对于使用AI系统的企业组织来说,数据使用方式的透明度至关重要。如果用户不知道他们受到AI决策的影响,他们将无法理解或质疑它。其次,要确保用户对数据使用的知情权,并合理合法地使用数据。再次,组织应确保AI算法本身以及它们所依赖的数据经过精心设计、开发和管理,以避免不必要的负面后果。
一言以蔽之,AI应用中良好的数据安全措施是不可或缺的。组织不要收集不必要的数据,并确保在一定时间后删除信息。同时确保对数据的访问受到适当限制,并且具有良好的安全实践。
综上,AI无疑是一种改变游戏规则的技术,将广泛出现在商业应用中,但必须对其进行负责任的管理,以避免侵犯隐私。为此,企业领导者需要更批判性地思考AI是如何被使用和滥用的,发挥AI的积极影响,规避AI的消极作用。