美国拒签“巴黎声明”,撕开全球AI竞赛三大裂痕

人工智能
美国拒签的主要动机,是阻止中国借国际框架扩大话语权,尤其是在DeepSeek颠覆美国AI霸权的当下。欧洲试图用“可持续AI”的伦理围栏约束技术狂飙,美国却选择一脚油门踩到底。为了宣示自己的AI霸权,美国甚至不惜与欧盟“撕破脸”。

2月11日,法国巴黎人工智能行动峰会落下帷幕,61国签署的《关于发展包容、可持续的人工智能造福人类与地球的声明》(下称《巴黎声明》),美英两国却选择了拒签和“退群”。这场看似寻常的国际峰会,撕开了全球AI竞赛的三重裂痕:技术路线之争、治理权博弈与安全观对撞。

一、美式AI霸权:为何拒绝“可持续”紧箍咒?

在巴黎,包括中国、印度、德国等60多个国家签署的联合声明中提出的优先事项之一是“加强国际合作,促进国际治理协调”。签署该文件的某国家员表示,这种措辞让美国感到不满,因为美国根本不接受AI治理的多边主义和国际合作。该官员表示,美国还担心法国在峰会期间启动的基金会“Current AI”会被用来向法语国家输送资金。

美国副总统万斯(JD Vance)在峰会上向世界各国领导人和科技高管表示:“特朗普政府将确保最强大的人工智能系统在美国建立,并采用美国设计和制造的芯片。”

“美国不会用国际条约束缚自己的AI领导者地位。”万斯在峰会上的表态,揭开了特朗普政府拒签《巴黎声明》的底层逻辑——这是一场“美国优先”与“全球治理”的路线战争。

牛津互联网研究所研究人工智能地缘政治的讲师基根·麦克布莱德(KeeganMcBride)表示,万斯的讲话“与拜登政府的态度发生了180度大转弯”。

技术原教旨主义的复活

特朗普政府的AI战略核心是“去监管化”。在万斯的演讲中,“市场自由”被反复提及,其潜台词是:任何可能延缓美国企业创新速度的规则都应被排除。这种立场与欧盟形成鲜明对比——后者正推动全球最严AI监管法案,要求高风险AI系统必须通过透明度审查和人工监督。

“美国科技公司想要‘无摩擦创新’,而欧洲想要的是‘可刹车创新’。”日内瓦国际治理中心研究员Martin Müller指出。这种分歧在算力与能源的绑定上尤为尖锐:当法国总统马克龙强调“用核能驱动绿色AI”时,美国却对“可持续”一词避之不及,背后原因是特朗普政府对化石能源的政策倾斜。

DeepSeek破局,欧盟迎来历史性机遇

美国拒签的主要动机之一,是阻止中国借国际框架扩大话语权,尤其是在DeepSeek颠覆美国AI霸权的当下。中国代表在峰会晚宴上呼吁“秉持AI公益性原则”,而万斯则在演讲中暗指“专制政权”可能滥用AI技术。这种将技术和经济问题政治化的对抗性叙事背后,是两国在基础模型领域的贴身缠斗:

  • OpenAI的GPT-5训练成本突破20亿美元,而中国深度求索(DeepSeek)仅用1/10成本实现可比性能;
  • 美国商务部正酝酿对华AI芯片禁运升级,试图锁死算力差距。

“《巴黎声明》的‘包容性’原则可能为中国参与规则制定打开缺口,这是华盛顿无法接受的。”前白宫科技政策顾问Tom Kalil指出。

中美博弈的“规则真空”和DeepSeek的横空出世给AI的第三极——欧洲带来了战略机遇。欧洲一直寻求在人工智能行业站稳脚跟,以避免过度依赖美国或中国。

“马克龙主持的AI峰会的宣传重点是推动替代美国主导的人工智能技术发展。”人工智能研究机构AI Now Institute的欧盟和全球治理高级负责人弗雷德里克·卡尔特霍伊纳(Frederike Kaltheuner) 表示:“在DeepSeek发布强大的开源模型后,欧洲人迎来了稍纵即逝的在人工智能领域竞争的机会。”

在法国总统马克龙主持的为期两天的峰会上,欧洲领导人和企业公布了在数据中心和计算集群方面约2000亿欧元的计划投资,以支持欧洲的人工智能发展。

二、安全陷阱:当AI军备竞赛失去刹车片

美国拒签的代价,可能是全球AI安全治理的全面失序。

军用AI的“黑箱化”

五角大楼2025财年预算显示,AI军事应用拨款增至180亿美元,涵盖自主无人机群、AI目标识别系统等领域。而《巴黎声明》中“禁止自动化杀人武器”的条款因美英反对被删除。缺乏国际约束下,AI军事化正滑向危险边缘:

  • 以色列军方已在加沙使用AI系统生成空袭目标清单,误伤率引发争议;
  • 俄罗斯“Marker”战斗机器人配备自主开火模块,伦理审查机制缺失。

“没有全球安全框架,AI可能让战争变成算法游戏。”乔治城大学安全与新兴技术中心(CSET)高级研究分析师Lauren Kahn警告。

企业“精神分裂”

美国政府的放任政策,正将硅谷的科技巨头推向两难境地:
  • 微软、谷歌为满足欧盟《人工智能法案》,不得不在欧洲设立独立合规团队,导致研发成本增加15%;
  • 亚马逊AWS在弗吉尼亚州的数据中心因碳排放激增,遭环保组织起诉,被迫加速采购核能。

“我们像是在两个平行宇宙中运营。”一位硅谷AI公司高管吐槽,“加州总部追求极致性能,布鲁塞尔办公室却要证明算法不会搞性别歧视。”

三、未来战争:谁能定义AI的“安全”?

巴黎峰会的真正遗产,或许是揭示了AI竞赛的终极战场——不是算法或算力,而是规则的制定权。

美国的“自由放任”与欧盟的“谨慎监管”能否共存?中国的“发展优先”如何平衡安全风险?这些问题尚无答案。但可以确定的是,当AI开始重塑战争、能源与国际权力时,没有国家能真正独善其身。

唯一的问题是:在技术失控前,人类还剩多少时间踩下刹车?谁能够阻止“刹车焊死”的美国AI霸权主义?

责任编辑:华轩 来源: GoUpSec
相关推荐

2025-02-13 08:50:00

2009-03-31 18:58:26

Vmware虚拟化IBM

2024-07-31 15:44:06

2017-03-07 11:46:16

2019-04-18 17:29:24

AI阿里巴巴

2019-08-28 20:46:57

AI人工智能教育

2020-02-18 13:46:18

人工智能技术Google

2021-01-19 09:56:30

AI知识图谱

2024-06-25 10:41:03

2019-09-25 09:09:11

AI 数据人工智能

2024-10-30 16:30:17

2019-10-14 15:19:56

AI 数据人工智能

2011-11-17 09:52:30

SAPSAP TechEd 孟鼎铭

2019-03-14 13:17:03

人工智能分析A12研究

2024-04-19 10:06:58

2009-03-30 10:52:18

2015-12-21 10:09:29

app应用

2015-11-16 15:23:50

巴黎暴恐互联网公司科技巨头

2012-07-19 13:28:50

僵尸网络Grum
点赞
收藏

51CTO技术栈公众号