人工智能的未来是人机环境系统智能

人工智能
真正的军事智能或人工智能不是抽象的数学系统所能够实现的,数学只是一种工具,实现的只是功能而不是能力。只有人才产生真正的能力。所以,人工智能是人、机器、环境、系统相互作用的产物,未来的战争也是机器计算结合人的算计所得出的洞察结果。

军事智能就像战争一样,是一团迷雾,存在着大量的不确定性,是不可预知、不可预测的。从当前人工智能的发展趋势来看,可预见的未来战争中,存在着许多人机融合隐患仍未能解决,具体有:

(1)在复杂的信息环境中,人类和机器在特定的时间内吸收、消化和运用有限的信息,对人而言,人的压力越大,误解的信息越多,也就越容易导致困惑、迷茫和意外。对机器而言,对于跨领域非结构化数据的学习理解预测,依然是非常困难的事。

(2)战争中决策所需要的信息在时间和空间上的广泛分布,决定了一些关键信息仍然很难获取。而且机器采集到的重要的客观物理性数据与人类获得的主观加工后的信息和知识很难协调融合。

(3)未来的战争中,存在着大量的非线性特征和出乎意料的多变性,常常会导致作战过程和结果诸多不可预见性,基于公理的形式化逻辑推理已远远不能满足复杂多变战况决策的需求。鉴于核武器的不断蔓延和扩散,国家无论大小,国与国之间的未来战争成本将会越来越高。无论人工智能怎么发展,未来是属于人类的,应该由人类共同定义未来战争的游戏规则并决定人工智能的命运,而不是由人工智能决定人类的命运,究其因,人工智能是逻辑的,而未来战争不仅仅是逻辑的,还存在着大量的非逻辑因素。

(4)鉴于各国对自主装备分类不同,对于强人工智能或叫通用人工智能类武器概念的定义和理解差距都很大,所以当前最重要的工作不时具体的技术问题如何解决(技术迭代更新的非常快),而是有关人工智能应用基本概念和定义如何达成共识,如::①什么是AI?②什么是自主?③自动化与智能化区别是?④机器计算与人算计的区别是?⑤人机功能/能力分配的边界是?⑥数据、AI与风险责任的关系如何?⑦可计算性与可判定性区别等等。

有的定义还很粗略,需要进一步细化,如从人类安全角度看,禁止“人在回路外”的自主武器是符合普世价值且减少失控风险必要之举,但是什么样的人在系统回路中往往就被忽略,一些不负责任的人在防疫系统中可能会更糟糕;

(5)对于世界上自主技术的发展情况,建议设立联合评估小组,定期对自主技术发展情况进行细致的评估与预警,对技术发展关口进行把关,对技术发展进行预测分析,对进行敏感技术开发的重点机构和研发人员进行定向监督,设立一定程度的学术开放要求。

(6)AI军用化发展所面临的安全风险和挑战主要有:

①人工智能和自主系统可能会导致事态意外升级和危机不稳定;

②人工智能和自主系统将会降低对手之间的战略稳定性(如中美、美俄之间战略关系将更加紧张);

③人和自主系统的不同组合(包括人判断+人决策、人判断+机决策、机判断+人决策、机判断+机决策)会影响双方的态势升级;

④机器理解人发出的威慑信号(尤其是降级信号)较差;

⑤ 自主系统无意攻击友军或平民的事故将引起更多质疑;

⑥ 人工智能和自主系统可能会导致军备竞赛的不稳定性;

⑦ 自主系统的扩散可能引发人们认真寻找对策,这些对策将加剧不确定性,且各国将担忧安全问题。

计算应对“复”,算计处理“杂”,写作文就是一种计算计过程,只不过不是用数字图形,而是用文字符号。

人类不可能完全掌握世界,但可以尝试理解世界,这种智能会催生出更新的哲学范畴和思考。

在冯·诺伊曼生前出版的最后一本关于大脑和计算机之间关系的著作,《计算机与人脑》(The Computer and the Brain)中,冯·诺伊曼总结了自己以上观点,并且承认大脑不仅远比机器复杂,而且大脑似乎沿着他最初设想的不同路线来实现其功能。几乎盖棺论定般地,他认为使用二进制的计算机完全不适合用来模拟大脑。这是因为他已经几乎可以论定,大脑的逻辑结构,和逻辑学、数学的逻辑结构完全不同,那么,“从评估中枢神经系统真正使用的数学或逻辑语音的角度来看,我们使用的数学的外在形式完全不适合做这样的工作。”​

最近的科学研究也证实了这一点。法国神经科学家罗曼·布雷特(RomainBrette)的发现从根本上质疑了大脑和计算机底层架构上的一致性,即神经编码。科学家们受到大脑和计算机之间隐喻的影响,将技术意义层面上的刺激和神经元之间的联系,转移到了表征意义上神经元编码彻底代表了刺激。事实上,神经网络是如何以一种最佳的解码方式将信号传递给脑中的理想化观察者的“下游结构”(downstreamstructure),至今是未知的,甚至在简单的模型中也没有明确的假说。那么,这种隐喻会导致科学家们只关注感觉和神经元之间的联系,而忽视动物的行为真正对神经元的影响。

匈牙利神经科学家盖伊尔吉·布萨基的研究结果更为激进。在他的《由内而外的脑》一书中,布萨基指出,大脑事实上并不是在通过编码表征信息,而是构建了信息。在他看来,脑并不是简单被动地接受刺激,然后通过神经编码来表征他们,而是通过积极地搜索各种可能性来测试各种可能的选择。这无疑是对于用计算机来比喻大脑的隐喻的全盘推翻。

无论是从脑科学,还是计算机科学的角度,这种将大脑比作计算机的隐喻寿命或许都将不再延续。科布敏锐地指出,这种隐喻被作用到人们对于计算机的研究之中,让人们盲觉,缩小了真正该研究的范围。

责任编辑:华轩 来源: 人机与认知实验室
相关推荐

2017-03-15 08:43:35

2022-06-20 11:05:58

通用人工智能机器人

2022-11-03 15:16:27

人工智能

2020-12-24 15:56:01

人工智能人机对抗技术

2023-08-25 10:24:50

2022-07-29 15:47:25

人工智能AI

2023-06-09 09:57:40

人工智能教育

2021-06-28 16:15:57

人工智能AI

2022-07-08 11:02:01

人工智能AI

2023-12-29 10:17:44

2021-08-12 21:10:30

人工智能AI

2021-03-22 12:08:30

人工智能

2022-03-15 16:06:39

人工智能AI

2018-11-07 14:20:35

人工智能未来教育

2023-11-02 15:36:38

人工智能AI

2018-03-30 14:47:13

2021-05-04 16:50:35

环境智能智能家居人工智能

2023-05-05 14:02:59

人工智能聊天机器人

2021-10-17 21:43:55

人工智能无人机网络安全

2020-08-31 15:15:20

人工智能算法AI
点赞
收藏

51CTO技术栈公众号