为什么AI总是很难落地?

人工智能
飞机落地需要空中交通管制和航道,AI落地也需要管理和方法。飞机安全落地常常与物理域的参数密切相关,而AI的落地会更复杂,不仅需要物理域的参数有关,还与认知域的指标、信息域的表征有关,不仅与大脑有关,还与各种对象、环境的变化有关。

为什么AI总是很难落地?为什么人工智能常常被人诟病?有人说这是由于科幻电影、科幻小说、电子游戏、新闻媒体等造成的,这个观点有一定的合理成分,但还有一个更重要的事实为大家所忽略,那就是本应为“人机环境系统融合智能”常常被误认为是“人工智能(甚至是一些算法)”所致。

生命和机器虽然都可以作为认知的载体,但认知的性质是不同的。一个是生命的认知,一个是机器的认知,是特定人对特定事物的认知。人机智能解决的重点是方向和风险,人机工效解决的是过程和效率。计算-算计的机制机理构建是人机混合智能突破关键。群体智能的关键在于三体以上的协调逻辑构建,而三体逻辑构建已超出了形式化计算逻辑的范围,需要建立形式化算计逻辑体系。

无论是复杂还是简单,无论是自动化产品还是智能系统,大凡接地气,并为众人所接受的喜闻乐见,仔细想想,无不是在安全、高效、舒适方面做的比较好些。而要具备这些优点,其人、机、环境系统大都比较和谐一致,至少不是简单的AI+某某领域或者是某某领域+智能算法。前段时间写了一篇“智能的本质好像不是数据算法算力和知识”,强调生成这些的机理才是活生生的智能之源,这次还接着谈,现有的人工智能教育体系培养出的“人才”可能还是没有“魂魄”的“机器人”,究其因,还是干巴巴的“算法”所致,有算无法,有术无道,有感无知,有理无情,有态无势,有芝无瓜,有(类)脑无心,有形无意,有眼无珠……只能在可能性的圈圈里打转转,而不能尝试探索不可能的世界,即使有些探索,也还只是在家族相似性的河床上蹦蹦跳跳,而对真实的非家族相似性还远远无能为力。除了人机环境系统交互之外,第二个方面就是对深度态势感知的理解和消化,比如很多情境下只知道时空之间的配准、校正,不明白态、势、感、知之间的配准与校正;只知道非协同距离的失真解算,却忘了协同距离的模糊展开;只知道变频、变量,不思考变态、变势、变感、变知、变通;只知道数据链、信息链,不琢磨事实链和价值链,甚至是态链、势链、感链、知链的纠缠叠加所形成的人机环境系统链;只知道同质、均匀、顺序的态势感知单一调制,而忽略了更重要的异质、非均匀、随机态势感知多级阵列,以及先感后知的快速机动性和先知后感的准确灵活性,还有态、势、感、知之间的自相关、互相关的转化概率;只知道人模机样,不晓得机模人样;只知道仿真验证结构,不重视实战得到功能。原因之三:一些事情发生了,我们不时会自觉或不自觉地与身边的刚刚发生或印象比较深的事物关联在一起,建立自己个性化的“因果关系”态势谱(不仅是图谱),的确有关的被称为客观事实性关联,似是而非的称之为可能性关联,风马牛不相及的被称为主观意向性关联……这些生活中的常常发生的关联都是智能认知的组成部分,能够程序化的客观事实性关联部分也往往被称为AI,可能性关联和主观意向性关联却被过滤掉了,而这两者却是个性化智能之所以弹性的重要组成成分吧。总之,本是人机环境复杂系统的问题却想用AI算法简化处理;只知道态势感知,不明白深度态势感知;忽略风马牛之间的虫洞联系;这三个问题也可能是造成AI总是很难落地的诱因吧!

DARPA的无人机大战有人机——“狗斗”测试刚刚结束,热闹过后,从测试后的回顾来看,AI获胜的关键在于极强的攻击性和射击的准确性,但问题主要在于判断存在失误。据美军测试人员的说法,测试中的AI系统经常在基本的战斗机机动中犯错误,AI不止一次地将飞机转向到其认为人类对手飞机会去的方向,但多次都被证明错判了人类飞行员的想法。这也不难理解,人类飞行员判断对手意图都经常出错,更何况AI系统缺的就是对创造性战术的理解能力,出现这类失误并不奇怪。然而,由于其"卓越的瞄准能力"和追踪对手飞机的能力,AI在整体上仍然能够保持对人类飞行员的优势,电脑系统最终在整个对抗中占据上风。

简而言之,无人机AI在“态”的精度和“感”的速度上占得先机,但在“势”的判断和“知”的预测上还不具备优势。建议以后的有人机飞行员多在假动作(就像乔丹、科比、詹姆斯那样)、打破规则(如同孙子、诸葛亮、粟裕一般)方面上狠下功夫吧!没有了规则,所有的算法和(数学)模型就会失去了边界、条件和约束,所有的计算就不再精确和可靠,当概率公式从算计变成了算命,机器的优势也许就不如人了吧?!

人是价值性决策——论大是大非而不仅仅是计算得失;机器是事实性决策——论得失加减,而不是是非曲直。态、势之间与感、知之间的都是量和质的关系,其中的"势"即一定时期内的最大可能性。凡是在“势”中的,没有不是先已在“态”中的;凡是在“知”中的,没有不是先已在“感”中的。正可谓:星星之火可以燎原。如果目标明确,在与控制单元和装备组成的大系统博弈,对手应是或只能是相应的系统,不是操作装备的人,或者说是设计、操控系统的人。这方面,我们有很大的弱项。关键是开发环境下长中短期目标的动态变化会造成目标的不明确乃至模糊。

现在的人工智能就像高铁一样,速度很快,但是需要轨道,而真正的智能应该像飞机那样,只要能达到目的地,不需要特定的轨道和航线。态势感知的误差分为态、势、感、知方面的误差,也可分为事实性/价值性误差。人工智能在武器上的应用主要体现在机器对机器的任务布置和武器的实时重新瞄准上,这种对典型“服务提供者”的效果优先级排序将在战术层面执行,取决于智能化机器能否消化和分析来自整个战场的数据。事实上,人机功能分配中事实性与价值性的数据、信息、知识、责任、意向、情感混合/融合排序展开进行才是未来的有人-无人对抗之焦点和难点吧!

责任编辑:华轩 来源: 人机与认知实验室
相关推荐

2021-07-26 14:50:03

人工智能算法云计算

2024-04-29 11:50:01

软件

2018-08-20 07:54:15

AI算法数据

2017-09-20 16:22:35

谷歌

2020-07-29 07:05:00

DevSecOps

2012-03-07 13:43:59

Objective-C

2016-12-16 12:54:44

数据挖掘大数据

2016-12-13 19:47:31

大数据

2023-05-15 14:02:24

2010-08-06 10:29:56

苹果

2017-05-25 12:04:58

云计算安全云数据

2014-07-14 09:58:18

Objective-CiOS学习

2015-11-13 11:02:35

2014-08-15 11:07:09

程序员

2018-05-07 15:30:13

数据治理分析数据集

2021-03-23 10:08:02

编程互联网数据科学

2021-12-15 16:35:59

数字化转型IT技术

2018-05-07 10:32:40

数据分析

2024-04-19 14:02:23

2013-08-06 16:36:55

GnomeGnome项目项目
点赞
收藏

51CTO技术栈公众号