导语
12月7日,英国无人机战争网站发布报告称,人工智能备受各国军事部门青睐,在军事领域得到广泛应用。但是,军事人工智能系统也存在一定的潜在风险。鉴于英国所面临的安全挑战与其他大国不同,应当回避人工智能有关风险,另辟蹊径以维护国家安全。
一、人工智能基本情况
英国政府将人工智能描述为“能够执行需要人类智慧才能完成任务的技术,如视觉感知、语音识别和语言翻译等”。人工智能系统具有学习或适应新信息的能力。由于人工智能系统通过识别数据集内的统计关系来工作,常用于处理以下问题:自动化任务;处理复杂或大型数据集;预测行为;标记异常情况或感兴趣事件;数据标记和错误纠正。
人工智能速度快、善于处理大型复杂数据集、以及准确执行重复性任务的特点,奠定了其在军事领域中的作用。军事部门比较感兴趣的人工智能属性包括:快速分析和行动;大型简单任务的自动化;机器人与自主系统;识别模式以预测未来趋势或检测异常;对目标和信号进行分类与识别;系统优化;改进决策质量。
二、人工智能的军事应用
1.远程工作
机器人和自动化系统可代替人类执行“枯燥、肮脏或危险”的军事任务。自主技术可以执行爆炸物探测与处理、海上或陆上扫雷行动,在敌对环境中进行侦察等任务。
2.情报监视侦察
情报收集汇集了大量数据,包括文本文件、视频和图像、电子拦截信息以及互联网开源信息。人工智能已经在处理和分析这些数据方面发挥作用。
3.流程自动化
通过应用人工智能,可将军事部门的人事、后勤、财务和会计等日常工作流程自动化,在提高工作效率的同时,让工作人员处理其他更复杂的事务。
4.网络战
人工智能系统可以主动识别可疑活动并实时应对网络攻击。通过扫描可疑的行为模式以及潜在的恶意代码,人工智能系统可以发现表征新型网络威胁的信号。此外,人工智能也可以参与进攻性的网络作战,例如用来识别网络防御的薄弱点,或者设计新型恶意软件。
5.电子战
人工智能的支持者认为,人工智能在电子战的所有要素中都可以发挥作用,因为它有能力应对新的和意想不到的威胁,而且与传统技术相比,人工智能的快速运行速度更具优势。
6.指挥控制与决策辅助
在指挥控制与决策中,人工智能工具的速度和能力可以帮助处理外围任务,使指挥官专注于人类更擅长的事务。不久的将来,可能会使用人工智能将一系列传感器数据整合到通用作战图中,供指挥官使用。
7.自主车辆与军用机器人
自主车辆通过传感器和人工智能软件来感知环境、识别障碍物、融合传感器数据、导航并与其他车辆通信。该技术现已足够成熟,主要军事大国正着手部署军用自主车辆。另外,能够自主飞行的无人机也在开发之中,如美空军研究实验室“天空博格人”(Skyborg)项目。
8.蜂群
人工智能可以使自主系统以一个相互连接的智能群体的形式运行,有关软件正在研发之中。受昆虫群的启发,蜂群机器能够合作战胜对手。蜂群自主运行,没有中央控制,单个组成单元能够感知周围环境和蜂群其他成员,并与其他成员合作完成任务。
9.致命性自主武器系统(LAWS)
LAWS是一种人工智能武器系统,能够识别、打击和摧毁目标,无需人类参与。它们是基于监测周围环境的传感器系统、识别潜在目标并决定是否发起攻击的人工智能系统和能够摧毁目标的武器的组合。
10.信息战
基于人工智能的互联网机器人可以通过创建虚假的网络身份,以比人更快的速度传播信息。人工智能应用程序还可以用于从社交媒体中挖掘数据,为政府官员、政治家和军人创建数字“生活模式”,以达到强制目的。人工智能技术能够生成日益逼真的照片和视频(深度伪造技术),最终可能被用于支持意在误导和操纵的网络攻击。
三、英国军事人工智能发展情况
英国重视人工智能的发展。 战略规划方面,2021年9月,英国发布《国家人工智能战略》,提出“使英国成为全球人工智能超级大国”的十年计划。2021年3月,英国发布《综合评估报告》,明确要“成为科技超级大国,在人工智能等关键领域建立领先优势”。同月,英国防部公布题为《竞争时代的国防》战略文件,表示在未来四年内投资66亿英镑用于国防研究和开发,重点关注人工智能、自主系统等新兴技术。
部门设置方面,2018年5月,英国防部宣布成立新的人工智能实验室,加强和加快人工智能技术在国防和安全挑战中的应用。2021年5月,媒体披露,英国防部装备与保障总局与英国陆军合作,成立“远征机器人专家中心”来开发自主系统,集合了政府、学术界和工业界的机器人和自主系统专家,共同评估“未开发、高风险但迅速成熟的技术”。
军种方面,海军成立NELSON数字加速实验室,并建立名为NavyX的军工加速器,致力于开发自主水面舰艇和无人机。英国陆军正打造一支作战实验部队,该部队以一个步兵营为基础,成员来自全军,对半自主无人系统等新技术及其整合进行试验。空军有一个快速能力办公室,2017年以来一直在探索轻量级廉价新型作战飞机(LANCA)的选项,旨在作为“忠诚僚机”与有人飞机一起高速飞行,提供支持保护或独立执行任务。
四、潜在风险
军事人工智能系统面临的潜在风险分为三类:
1.伦理与法律层面
机器人系统(尤其是自主武器)如何遵守战争法的相关规定;人工智能系统造成意外时难以问责;人工智能系统对人权和个人隐私构成潜在威胁;人工智能不当使用也将导致一定风险。
2.作战层面
被破坏的训练数据会对人工系统性能产生很大影响;当人类误用系统或误解其输出时,或者操作人员对系统信任不足时,可能会产生偏见;人工智能系统易受恶意行为者的干扰、欺骗或入侵。
3.战略层面
军事人工智能系统可能降低战争门槛,加速局势升级,引发人工智能军备竞赛,破坏战略稳定等。
五、小结
世界主要大国为取得军事人工智能领先地位,在许多技术、法律和伦理问题没有解决之前,就急于引进这种技术,并寻求广泛部署。需要指出的是,英国所面临的安全挑战与其他国家截然不同,先进技术并非解决安全问题的唯一手段。英国应该将保护民众安全和福祉作为安全政策的核心,转向其他可能维护国家安全的方法。