麦肯锡在2013年发布的一份报告中,预测了到2025年对全球经济最具影响力的12项技术,其中排名1至6位的技术,分别是移动互联网(Mobile internet)、知识工作自动化(Automation of knowledge work)、物联网(Internet of things),云计算(Cloud technology)、先进机器人(Advanced robotics)和自动驾驶(Autonomous and near autonomous vehicles)。
巧合的是,这六项技术无一例外的与信息技术有直接或者间接的关联。今天,他们对于全球社会进步和经济发展的推动效果已经毋庸置疑地显现出来,在中点时刻我们可以预想到,新一代信息技术的进步和应用仍将是未来五到十年时代变革的主要引擎之一。
在新一代信息技术蓬勃发展的进程中,中国政府显示出充分的关注与支持。中共中央政治局自2017年至今,先后集体学习国家大数据战略、人工智能发展现状与趋势、区块链技术的发展现状和趋势和量子科技研究和应用前景。
前重庆市长,现以经济学家角色活跃的黄奇帆提出在此轮变革中,中国有机会摆脱以往跟随者的角色,领航新一代信息技术的发展。刚刚结束的中共十九届五中全会公报中指出“坚持创新在我国现代化建设全局中的核心地位,把科技自立自强作为国家发展的战略支撑。”
新一代信息技术 源自经典理论体系难以为继
新一代的信息技术的发展缘由,是信息技术的经典基础理论和技术体系的发展遇到了瓶颈。这里指称的信息技术经典基础理论和技术体系,是20世纪60年代诞生的,以计算、储存和通信技术为基础,形成互联网、移动互联网和物联网并支撑现代服务业、现代制造业以及信息产业的体系。
对于经典的信息技术发展路径,有一条广为人知的代表性总结,即摩尔定律,认为在价格不变时,集成电路上可容纳的元器件数目每18-24个月增加一倍,性能提升一倍。但问题在于,元器件数目增长物理原理,是两个元器件之间的最小距离不断缩短。最近台积电宣布取得重大进展的2nm工艺,几乎已经达到了硅基芯片元器件距离的物理最小极限,摩尔定律所预测的增长在2020年即将难以为继。
为了解决上述困境,我们目前正在进行技术原理创新和工程原理创新的两种思路的探索。所谓技术原理创新,就是改进或替换图灵机、布尔运算、冯诺依曼结构、半导体等数学和物理基础。以芯片为例,放弃目前的硅基路线,转而采取新结构或者新材料,从而突破2nm的元器件距离极限。
如北大张志勇-彭练矛课题组在碳基集成电路的方向上探索多年,并在最近突破了半导体碳纳米管关键的材料瓶颈,使其制备出的器件和电路在真实电子学表现上首次超过了硅基产品。技术原理创新的设想和方案众多,但哪种方案最优?至今仍无定论,需要持续的摸索和投入,预计至少在十年后,也就是2030-2040年将进入信息技术基础理论和技术变革性突破的窗口期。
这项对于信息技术技术变革的时间判断提出于2000年,当时,科学家已经预测经典的信息技术已经不能适应未来社会的发展,而新的技术性原理突破还在三十年后,而更高精度的芯片制造和巨量芯片攒组而成的超级计算机的天花板触手可及。因此,一个问题自然而然的浮现:信息技术的研究还应该沿着原来的道路继续前行吗?
没有人知道答案。但是的确存在第二条道路,那就是以工程原理的创新推动技术的运用和发展。这在过去的很多领域都有应验,比如飞机的制造与空气动力学之间的相互成就。在信息技术发展的过程中,就表现为在解决现实问题中,拓展现有信息技术的应用场景和方式,突破物理限制,将全球的计算能力连接起来,形成一台泛在的计算机,所有的人都可以使用,所有的物也因而连接。这就是“人机物跨界融合 ”
人机物跨界融合新一代信息技术的主航道
人机物跨界融合,实际上就是地球物理系统、人类社会系统和网络信息系统的连接融合。早在1991年,马克·维瑟(Mark Weiser)就是提出了“普适计算(Ubiquitous computing)”这一类似的概念,而真正为社会所感知,是2008年IBM提出了“智慧地球(Smart planet)”,宣扬全世界的互联互通和智能化。
到今天,如芯片的不仅应用在计算机中,还与各种终端融合;传感器和手机支付无处不在;移动互联网积累的海量数据,帮助算法更加精准的提供服务。共享单车、自动驾驶、智慧城市,人和事物之间的关系被信息技术深深的改造和影响。人机物融合已经普遍的发生了。
总结起来,人机物跨界融合有三点特征。第一是自然世界信息化,把现实世界的万事万物,都数字化于网络。比如,我们在微信中的交流,是自然语言数字化的过程;第二是信息世界自然化,在共享单车和自动驾驶方面体现最明显,第三是虚实世界孪生化,一旦自然世界被信息化,就可以通过数字孪生进行模拟仿真,预测未来的各种情况,从而成本和资源的浪费。
人机物跨界融合与经典信息技术转换的导火索是2000年的互联网泡沫。1973温特·瑟夫(Vint Cerf) 和罗伯特·卡恩(Robert Elliot Kahn)开发出了TCP/IP协议中最核心的两个协议,两台机器之间从此可以进行数据包的传输,这是互联网的开端;1983年,美国军方背景的阿帕网(ARPANET)采用了TCP/IP协议,从而诞生了真正的互联网。
进入九十年代,互联网开始商业化之路,其中蕴藏的巨大的价值潜力被释放出来,出现了雅虎(Yahoo)等一批巨头。新的时代出现了两条影响至今的定律,第一条是梅特卡夫定律(Metcalfe's law,1993):一个网络的价值等于该网络内的节点数的平方,而且该网络的价值与联网的用户数的平方成正比。这也就解释了为什么移动互联网时代,为什么所有的企业都在强调“获客”,为了获客可以付出巨大的“成本”。
另外一条定律是吉尔德定律(Gilder’s Law 1996): 在未来25年,主干网的带宽每6个月增长一倍,是CPU增速的三倍。
1995-2000年疯狂的互联网市场与这两条定律相互证明,大量的企业拥抱互联网。但一直以来,互联网争夺的都是用户的注意力,而互联网用户的基数有限,这对矛盾的后果就是世纪初的互联网泡沫,纳斯达克股指一泻千里,美国经济因此受创。但正是这次危机,才让人们认识到,互联网泡沫对于美国经济的影响,已经和石油危机、金融危机处于同一个层次。信息的价值在初代互联网企业的废墟中闪耀着光芒。
云计算:信息技术 工程原理变革的“起点”
亚马逊是今天全球最成功的互联网公司之一。零售之外,云计算(Amazon Web Services)是其业务的最大亮点。今天的亚马逊云计算业务在全球的云计算市场份额达到了40%,贡献了亚马逊经营的利润的绝大部分。
但是这项业务的开始,却始于经典计算机理论的应用缺陷。作为零售网站,为了应对“黑色星期五”打折促销日这个访问量的峰值时刻,亚马逊购买了巨量的服务器和网络带宽。但当“黑五”结束后,访问量相比峰值下降了90%之多,先前的购买的设备和带宽空置,带了巨大的折旧费用。为了分摊运维和采购成本,亚马逊采取创新优化的手段,将这些资源租给了中小企业,甚至一些大型企业的需求也能满足。这个模式就是云计算。
云计算中没有超越经典信息技术体系的原理,他的方法本质上是类似于数据中心的管理,将计算资源聚合在一起。美国科技作家尼古拉斯·凯尔(Nicholas G.Car)在《Big-Switch》书中提出,云计算对于信息技术产业的意义,可以类比为电气时代“由发电机模式向电厂模式的转向”。
在爱迪生发明灯泡之后,为了供电,每家每户都需要购买发电机,在电厂出现以后,供电的便利带了电器类型的大发展,冰箱、洗衣机等等设备出现了。就如同我们拥有手机和电脑这样的终端,主要的计算处理依赖于自带的芯片,如果实现了云计算,那么就实现了统一供电,不仅计算能力会提高,而且新的产品形态也必将涌现出来。
因此,云计算是新一代信息技术工程原理变革的起点,它的本质是信息资源的融合,赋予了“人机物融合”源源不断的动力。
大数据:信息技术 工程原理变革的“焦点”
新一代信息技术工程原理变革的第二个转变是对于数据利用方式的转变。最典型的案例是地图软件对于用户数据的使用,当用户的GPS定位、历史轨迹等数据上传到云端,软件就可以跨用户整合数据,并描述性分析当前的路况如何;用户发出路线请求后,软件则根据历史轨迹、时间等参与,预测性分析“可能发生了”,在页面上呈现事物可能发展的趋势。而在未来,当上云的数据足够充分,计算机就可以做出“决策性分析”,最终实现无人驾驶,这实际上也就是我们耳熟能详的“大数据”。
大数据是信息技术工程原理变革的“焦点”,之所以是“焦点”是因为它既可以解决本领域的问题,也可以解决其他领域的问题。2019年4月10日,天文学家公布了M87星系黑洞的照片,这张黑洞照片并不是传统的天文望远镜拍摄而成,而是用大量的照片素材,辅以各项参与,利用数据处理的方法呈现的。
这一事件标志着我们开始用数据管理的方法找到了现实世界的科学知识和科学发现,信息技术改变了自然科学。这种模式有一个响亮的名号:“第四范式”。科学研究的第一范式是实验,第二范式是数学推理,第三范式则是计算机科学仿真模拟,实质上是前两种的综合,而在数据密集型时代,自然科学研究的方向转到了数据验证的第四范式。
数据不仅改变了自然科学,也改变了社会科学。比如利用网络搜索记录来实现对流感趋势的预测等等,越来越多的研究者将大数据视为一种重要的手段。1997年,美国SGI的数据科学家就已经发布了关于大数据(big data)的报告,其中的技术特征和今天并无二致,但是由于应用场景的缺乏,并没有发展起来。在工程应用越来越丰富的今天,大数据的技术才终于拥有了用武之地。
人工智能:信息技术 工程原理变革的“高点”
人工智能是基于上述的“云计算”算力和“大数据”的养料 而实现的。面向给定场景,给出算法,加上云计算的算力,对数据实行暴力求解,可以得出来一个决策性分析。所有人工智能都是这个原理,因此人工智能的 本质上是数据智能,算法是其中的关键。
1956年8月,在美国汉诺斯小镇宁静的达特茅斯学院中,约翰·麦卡锡(John McCarthy)、马文·闵斯基(Marvin Minsky,人工智能与认知学专家)、克劳德·香农(Claude Shannon,信息论的创始人)、艾伦·纽厄尔(Allen Newell,计算机科学家)、赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家正聚在一起,讨论着一个完全不食人间烟火的主题:用机器来模仿人类学习以及其他方面的智能。这场会议并没有得出一个共识性的结论,但是大家却给讨论的内容起了一个名字:人工智能(artificial intelligence)
为了达到真正的“智能如人”,科学家采取了不同的思路。符号学派认为,语言是人工智能的切入点,把语言转化为符号逻辑是一条可行的路径;而连接学派认为,真正的模仿人就要模仿人的神经结构;行为学派则从控制论的角度试图做尝试。
今天的人工智能以深度学习为代表性技术,在学理上属于连接学派,而实际上的原理就是统计。深度学习应用最广泛的场景是人脸识别,人脸识别是对于像素的识别,而人对人的区分是依靠整体感觉。
也正因为深度学习的统计原理,导致了它不可避免的存在缺陷:第一,当数据量不够充分的时候,深度学习的“养料”不够充分,就有“学不出来”的可能;第二,当数据中存在错误或者误导数据的时候,就会存在识别(学习)得出错误的结果,正确率难以保证。
因此,在应用层面,要求准确率百分之百的场景,比如自动驾驶、精准医疗,今天的深度学习依然难以胜任;另外,深度学习的逻辑是统计,而人的思维很少用到统计。因此深度学习不可理解和预测人的行为,在统计的逻辑中,不存在因果关系等复杂模型。深度学习的主要应用领域今天仍然是视觉和听觉。
今天的深度学习的本质是数据智能,而且仅能应用在有限的领域,其原理在过去二十年没有重大进展。因此实际上是弱人工智能。人工智能的在人机物融合的过程中,实际上扮演了的促进知识融合的角色。让让机器通过人和物的数据理解人和物,仍有较大的突破空间,人工智能的进步将成为“人机物跨界融合的高点”
区块链:信息技术 工程原理变革的“奇点”
数据隐私是互联网用户关心度最高的问题。如果像前述的百度地图,用户的数据仅用于本应用内部,用以优化体验提供服务,理所当然;但一旦用户数据被跨应用使用,就绝对不可接受,这里的核心是确权问题。而大数据就是跨人,跨应用的数据收集和处理。因此,解决确权问题是实现人机物跨界融合的关键步骤。这个问题的解决则有赖于区块链技术。
区块链的原理是分布式账本,上链的信息不可篡改。比如,一个账户支付宝交易记录,只有一个账本,蚂蚁科技集团掌握这个账本,他们对于账本上的数据有很高的控制性,站在技术的角度上讲,集团就可以篡改这些数据。但如果这个账户和这笔交易存在和发生于区块链上,那么所有的参与者都将拥有这个账本,数据的来龙去脉清晰可见,就可以很好的保证数据的安全。
那么,如何对数据进行区块链的改造?以电子商务为例,涉及供应链、购物链和物流链等链条,比较复杂。改造的方法是关键数据上链,确认权利。对于数据的处理痕迹也留在区块链上,数据的使用得到控制;占有权,处分权,使用权,收益权,比较完美的实现确权。数据的价值需要流动来产生,流动的问题由区块链来解决,因此区块链解决的是人机物价值的的融合。
软件定义:信息技术 工程原理变革的“支点”
云计算、大数据和区块链的融合需要在软件层面实现。经典信息技术的的软件定义是程序和文档/计算机,程序等于数据结构加算法。这个公式可以套用于所有的设备,因此问题也是共性的,就可以开发出操作系统。而今天数据的来源复杂,算法来自深度学习,用云计算实现,所有信息反映于区块链上,问题极其复杂,没有一套操作系统可以解决,因此要做智能化软件。
今天怎么做智能化软件?有两个含义,第一个是要做智能软件化。即将来的人机物融合下的智能应用,要做出可以实现的软件,即software for ai;第二个含义是软件智能化。在开发层面,人工智能来支持开发。人类社会的代码有很大的重复性,应用深度学习的技术,以统计方法实现对代码意图的预测,从而大大减低开发门槛。
不仅仅是软件层面,在硬件方面也存在经济信息技术体系与新一代信息技术的不适配。首先,针对深度学习的训练,最合适的芯片不是CPU,而是GPU(图形显卡),因为大数据和深度学习的计算范式和经典信息激素体系已经发生了很大的变化。第二点是因为今天的深度学习是基于连接主义,因此只能预测概率,但不可解释,是否可以重构硬件架构,使得深度学习突破这一局限。
目前美国军方已经形成了一套人机物全部联网,数据可以实现互传的系统。以“网”为网络基础设施,“云”为信息服务环境,“端”为末端应用系统。传统的军事行动是人的深度参与,人是发现、分析、决策和行动的中心,现在的军事行动理论是人在监督参与,计算机根据数据来计算概率,给出选择,人做选择;而未来的军事理论是系统自我决策,人不做参与。
软件定义本质上是人机物能力的融合,弥补数据的缺失,弥补深度学习的不准确和不可解释性,因为最终担责的都是人。是人机物融合的“支点”,以此来撬动融合之后的可操作性。
数据互联网是新一代信息技术“新基建”
信息资源的融合起源于云计算,最后导致人机物资源的融合,人机物融合的最终形态是数据互联网。目前以bit为中心的互联网仅关注“二进制位”层面的编解码和传输控制,保障以“包”为单位的数据/信息在不同计算设备之间高效交换,在网络的任何设备上均得到一致的二进制包,实现网络的“开放”。而数据的标识、编码和交换,均依赖于上层应用自行处理,数以百万计的应用之间的数据生产关系必然无序。
要实现上述的人机物跨界融合,数据交换的无序问题必须解决,在TCP/IP协议之后,需要酝酿新的数据互联网协议,使得整个数据变清晰,各个信息系统就可以互通,从而实现了从目前的机器互联网像数据互联网的跃迁。这意味着现实世界和网络世界就变成了数字空间,将目光下移至产业层面,预示着以BAT为代表的网络经济将转换到数字经济,其中蕴含着巨大的创新机遇。
人机物跨界融合的终极挑战是“复杂性系统”
人机物跨界融合的终极形态是复杂系统。复杂系统的特点是非线性、有限、自组织和不确定。复杂性理论和马斯克提到的第一性原理是相反的。
人机物跨界融合的适应理论一定是复杂性理论,因为只要有人参与的系统,涉及到解释人性,就没有办用第一性原理来对照。无论是无人驾驶,还是智能家居,目前都还是在有限的人机物和空间范围内进行测试,一旦试图推广到像城市这样的真实的应用场景,就会面临着重要而复杂的问题。要在人机物的终极融合的方向,还是要通过数字孪生找出复杂系统中的最优解。
复杂系统本质上是系统论,上世纪四五十年代是以工程系统为代表,是线性的、机械的。发展到六七十年代,则以热力学系统为主,加入了随机运动的元素,以概率统计方法为工具,但无法把人容纳进来,因为人不随机。八十年代至今,则以生物和经济系统为主,计算机模拟和遗传算法是代表工具。此时,人进入了系统论的范围,人的大脑本身就是复杂系统。
因此,需要思考的问题是,我们要如何建构人机物跨界融合的复杂系统。尤其是在当下数据驱动具有重大缺陷的情况下,如何补足深度学习对于人的不可解释?一个也许可行的方式是将当下自然科学、社会科学与信息技术进行范式融合,将人类的行为模式建构到深度学习中,告诉我们的计算机和数据,什么叫是非,什么是曲直。
信息技术的发展符合政治经济学家熊彼特(Joseph Alois Schumpeter)提出的技术创新与经济发展的长波理论。我们看到1946年到1995年,基于经典理论体系的技术原理创新,是信息技术的发展主线;我们经历和预测,1995年以来信息技术的发展,是基于经典理论体系的工程原理创新。而究竟什么属于未来?是量子计算、脑机接口还是其他?
预测未来最好的办法就是创造未来。