分享

张一甲:人工智能到底是一件多大的事?产业全貌是什么?

 紫色37 2018-02-24



我们先看看整个行业的一个宏观背景,AI到底是一件多大的事。宏观背景有一个常见的方法叫PEST分析,P就是politics,政治环境,E是经济economy,S是社会society,还有T是技术technology,我简单地把这四个环境,给大家分析一下。

 

一、政治对人工智能的需求


首先中国是非常看重技术广泛应用的,我们的各项政策是旨在推动人工智能在各个领域的产业化,成为促进这个传统产业体质、增效、控险、降耗,等等的这个战略抓手,换句话说AI在中国的使命,更大意义上是服务于传统产业升级的。对于日本来讲,它受制于全球最严重的老龄化和资源的匮乏,所以日本的各项政策,其实是试图引导人工智能促进工业和服务机器人的普及,所以全世界有非常多很好的机器人公司诞生在日本,然后如果你去日本参加这个机器人博览会,你会看到非常多可能比我们国家要先进很多的技术。


美国更强调希望通过理论的发展,来带动产业变革。你去比较不同国家的人工智能的初创公司,你会发现中国可能更多在应用层,而美国可能更多理论层也多一点,不同国家的政策环境,导致了不同国家的产业分布其实是不太一样的。这是第一个,就是P,政治环境的分析。

 

二、经济和社会环境的分析


我把它结合在一起说,我集中在中国环境的分析。我强调三件事,一个是人口老龄化,一个是城镇化。


首先第一个,人口老龄化。我给大家说一个数字,国内60岁及以上人口现在多少人?超过两亿多人,占到我们总人口数量大概百分之十六点多,那么这个比重,比第六次全国人口普查上升了2.89个百分点,而国内的适龄劳动人口是多少人呢?九亿出头。



然后连续五年这个适龄劳动人口是在下降的。从这个角度来讲意味着其实我们过去十年,中国的经济发展,所依赖的那种高速的人口红利其实是消失了,人口红利消失意味着劳动力成本要上涨,用工成本增加,所有的低端的制造业都要受到极大的打击,社会服务的成本在整体地上涨;那么另外一个层面就是医疗、社保等等的社会管理的挑战,也在不断地产生很多的兑付的风险。


此外,我们从传统行业来看,国家的对于用人工智能等智能化的新一代的技术,希望它赶快为传统产业服务,去升级它的制造方式,去升级它的商业决策能力。这个需求就与日俱增了,这也成为整个国家在大力地拥抱人工智能的背后的一个重要原因。


在2012年到2016年期间,全球的整个对于工业机器人的销售量,它是一个以年化增长16%的速度去增长的,而中国这个数字是超过是31%,也就是说中国对于工业机器人的需求,远远地高出其它的国家。在2019年年末,中国将吸收全球40%的机器人产能。


还有一个重要的趋势“城镇化”,城镇化的趋势大家都能感受得到,目前中国的居住在城镇的人口是超过了7亿6000万人,城镇化率是超过了57%的,而且北上广深四个大城市加起来,常住人口就七千多万人。在这样的一个城镇化率快速增加的一个环境当中,提出了什么样的挑战,就是我们的城市治理的难度,公共服务的管理的要求,就逐渐提高了。城市的人、车流量巨大,交通拥堵必须得到缓解。


此外就是治安,治安的事件就必须得到更精准、更实时动态的控制,城市安防体系,智慧城市、平安城市,就需要极力得到建设。所以说从2016年就会明显感到,大量人工智能从业者在做一件事,做安防,整个安防产值到了一个什么样的规模,5000多亿的一个市值,很夸张,这也是非常中国特色的一个市场。你去美国看,不会有那么多的人工智能公司在做安防的。


另外一个城镇化趋势带来的影响就是,农村数量和农业人口的减少,农业人口减少会导致什么?会导致我们不管是农业的生产,还是农业的公共服务、社会治理,都需要更有效率的技术手段和社会组织的形式。比如说我周围有一些在做科技创新的朋友,他们在做什么呢,他们在用卫星做大数据,然后用大数据的方式来去做农业的数据化,他们就是这个方式来预测产量,来进行无论是天气还是各方面的预报,使得我们更知道我们每一年该生产多少什么样的粮食,使得整个农业的组织形式得到进一步的优化。所以相关的遥感的技术、卫星图像、农村生产的大数据服务等等,都得到了非常大的市场需求的刺激,也越来越多的创业者涌入这样的一个市场,这是第二个趋势,就是城镇化。

 


三、技术的拐点


最后一个就是技术,techenology,对于技术来讲,当我们谈到人工智能的时候,我们一般谈到的就是三点,数据、算法和算力。为什么会有过去的这样一个高起低回的发展曲线呢?因为三个元素,数据、算法和算力,在过去的六十年发展当中,它们都没有凑齐。但是这一波为什么人工智能猛一下起来了呢,其实是这三波力量,在这个时间点上凑齐了。

 

简单来讲,数据:2011年起,我们的数据量已经达到了ZB的量级,ZB是一个什么量级呢,一个ZB等于2的40次方GB的一个量级,然后数据显示出到了2020年,我们的数据量将增至大概44ZB这样一个数量级,我们无法想象。

 

而算法效率来讲,科学家们就发现,那人脑是怎么样去连接的,他们就
图让算法怎么去连接,人们发现人们的脑是分层的,他们就试图用一个多层深层的网络去连接。人们发现这个大脑在每个节点上每个神经元有运算,他们就试图让这个算法当中的每个节点去做运算。大脑是非常复杂,有上千亿的神经元,是一个非常复杂,我们无法去描绘的一个网络,但是当这种网络的各种节点连接起来,并且有各式各样的数据我们进来学习。

 

那么算力来讲呢,其实与这几年来的硬件计算能力的发展有很大的关系了。我们都知道在计算机的领域有一个叫摩尔定律的东西,摩尔定律意味着我们的计算能力,随着芯片的制成逐渐增强。但是传统的CPU芯片其实要求的通用性很高,延时性很低,当一个东西通用性越高,也就意味着它越不适合处理一些专用的问题。


所以CPU好像在做人工智能的深度学习的时候并没有什么优势,这个时候就误打误撞,有一个叫英伟达的公司就脱颖而出了。英伟达做的是一个跟CPU原理不一样的一个GPU,但是GPU它最开始是用来做游戏显卡的,但是人们突然发现它非常非常适合用来处理深度学习所需要的矩阵计算,所以你看到英伟达就奋起直追,成为一家巨头公司,一时风光无两,可以说英伟达是这一波深度学习浪潮起来之后,受益最大的一个全球科技巨头。


但是GPU它不是为人工智能而生的,所以它也存在着一些不足,于是你会发现,人们又开始用别的芯片,比如说FPGA、ASIC等等的芯片,甚至有大量的玩家开始做芯片行业相关的创业。


以上就是我的分享,谢谢大家。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多