在数字化转型工作中,十分强调通过数据科学技术来发挥数据的价值,例如通过数据分析方法,从数据中提取出有价值的业务信息,以此来提供有效的业务应用或业务决策。在数字经济大趋势下,数据分析这件事,突然之间地位得到了前所未有的提升。
当前,为了迎合数字化的迫切需求,数据分析似乎成为一种非常有潜力的技术能力。如果一个业务人员懂得如何做好数据分析,或者说,掌握更丰富的数据分析方法和经验,那么他似乎也更具职场优势。
然而,事实确实是这样吗?
在开始从事数字化转型,或者,牵头数字化项目时,经常会觉得数据分析技术能力很重要,然而,随着实践经验不断积累,接触的项目多了,逐渐发现,数据分析这件事变得有点“鸡肋”。
尤其是在技术层面,总觉得被一些外在的因素“卡脖子”,由于这些因素的存在,纵然有很多“绝世武功”可以拿出来过招,但似乎很少有机会真正发挥出这些技术方面的优势。
因此,最终得到结论——在数字化转型工作中,数据分析或许并没有想象的那么高级。
一般来说,数据分析有两种典型的应用场景。一是了解现状,二是发现未知。
而各种复杂的数据分析技术,以及相应的数据建模方法,基本上都是为了解决第二类需求,即发现未知,无论是未知的业务知识、规律,还是未知的猜测场景,或未来趋势。
比较尴尬的事实是,在企业数字化实践中,我们经常发现,大多数的数据是用来解决第一类需求,即了解现状。
在数字化应用中,往往不需要过多“花哨”的技术手段,如果你问业务人员需要什么,或者问领导想从数据中看到什么,大多数的回答基本上都是——某某数据统计结果能够及时、准确地反馈就好了。最多再来个可视化。
不需要建模么?不需要预测未知么?仅此而已?
当然需要,但是这些更高级的需求,其实业务部门对“数字化”的期待并不高。
除了在工业自动化相关领域,如智能制造或智慧城市中的全机器驱动场景,大多数企业在从数据资源中推断、判断业务情况,以及进行决策活动,还仍然遵循着传统的人工方式。
在数字化建设中,除了“取数”、“统计”,对于业务人员来说,其他需求似乎都不那么迫切。
在进行业务判断和决策时,采用机器建模的方式,被认为不那么可靠。
当然,导致这种结果的原因一方面可能是数据科学家并不那么了解业务,总是构建出华而不实的数据模型;另一方面可能对于一些综合的、“非线性”的业务问题,需要考虑的因素和关系也确实太复杂,即便是业务人员自己,对问题的结构化难度以及建模难度很大。
最终,业务人员选择出靠谱、顺手的一种数字化应用模式就是:机器来取数,整合信息,人(靠经验)来进行分析。这时,数字化应用从外表看是在做数据分析,而这种分析只是非常浅层的分析,或者说,最多只能算是数据查询、数据统计。
最终,数字化应用需求,大多数都退化为,以“取数”为中心的数字化能力建设。这类需求,在算法上没什么难度,技术创新空间不大,而为了保证“取数”的质量,技术人员又要花费大量的精力对平台进行性能上的优化,这属于“纯粹”工程上的事情,再不然,就是投入更多的人力来进行数据治理,保证“取”到的数据结果可靠。
数据分析,没有什么算法,也没有什么模型。即使有,也只是一些在业务上预定义的函数、规则、指标。
单纯数据驱动的方式得到有价值的结论,这看似是经典的案例场景,但其实却是数字化的未来理想状态,目前在大多数行业的数字产业实践中,并不太普及,也不太适用。
未来,数字化应用需要逐渐从以人工分析为主,过渡到以数据分析为主的形态,不断加大自动化、智能化要素比例。很多数据分析技术,在数据科学理论上都具有很优质的应用性能基础,因此要创造更有利的条件来促进产业中的深度数据分析活动实践,具体包括:
- 推动业务知识的数字化编码,加大数据库、知识库、案例库的数字化建设;
- 以有经验的业务人员牵头,进行产业数据模型的研究和开发;
- 加强数据治理工作,逐步提高数据资源的可用性;
- 研究具有可解释性的、更加“鲁棒”的数据模型,提高数据模型的适应性、可调节性;
- 推动数据部门和业务部门的工作协同,推动跨领域之间的数据共享和数据融合;
- 推动数据平台建设,低代码平台建设,降低业务人员主动参与数据建模与分析的技术门槛。