美国政府的一个委员会提交报告草案称,美国不应禁止使用或开发由人工智能(AI)驱动的自动武器。该委员会给出的理由是“道德义务”,即预计人工智能比人类犯的错误更少,因此可以减少伤亡人数。
据路透社1月27日报道,美国人工智能国家安全委员会26日结束了为期两天的公开讨论。该委员会副主席、美国前国防部副部长罗伯特·沃克表示,预计自动武器在战斗中犯的错误会比人类少,这样能够减少因错误识别目标导致的伤亡或小规模冲突。沃克表示:“至少(要)追求这一假设,这是一种道德义务(moral imperative)。”
同时,该委员会承认了自动武器的风险。委员会中一名来自微软公司的成员警告,制造这种能快速反应武器的压力可能会使冲突升级。
路透社报道指出,自动武器已经有数十年的研发历史。但随着人工智能用来支持自动武器系统、研究发现人工智能含有偏见、出现人工智能软件滥用现象,人们的担忧也与日俱增。
也有一些人反对人工智能武器。一些非政府组织近年来发起了名为“停止机器人杀手行动”(Campaign to Stop Killer Robots)的活动,希望推动出台禁止“机器人杀手”的条约。他们认为,在判断攻击是否正当以及认定战争罪责过程中,人类的控制十分必要。
路透社援引“停止机器人杀手行动”网站的信息称,巴西、巴基斯坦等30个国家希望制定相关禁令,联合国下属的一个机构至少在2014年就举行了相关会议。
除了人工智能驱动的武器之外,美国人工智能国家安全委员会还建议情报机构使用人工智能,以提高收集和审查数据的效率;呼吁联邦政府每年为人工智能研究提供320亿美元(约合人民币2067.5亿元)的资助等。
该委员会将于3月向国会提交最终报告,不过这些建议并不具法律效力。据该委员会网站信息,其成员由美国国会和国防部、商务部指派,谷歌公司前首席执行官埃里克·施密特担任主席。