人工智能60余载发展简史

2020-01-29 14:24 来源:未知 作者:石家庄生活网1
人工智能60余载发展简史

(1)史前:代数几何计算

人工智能60余载发展简史

一、算法

1、无

二、算力

1、1945年,根据冯诺依曼理论研制出ENIAC,人类历史上第一台计算机。

三、数据

1、无

四、典型应用

1、计算:1855年,英国发明家巴贝奇发明差分机。

(2)50年代开端:数学推理

一、算法

1、1950年,图灵提出图灵机、图灵测试构想。

2、1956年,达特茅斯会议,约翰麦卡锡(1971年图灵奖得主、LISP语言发明人)提出“人工智能”一词。

二、算力

1、无

三、数据

1、无

四、典型应用

1、搜索用于推理,应用于下棋游戏:1956年,机器学习之父亚瑟塞缪尔的西洋棋程序战胜了美国康涅狄格州冠军。“推理就是搜索”,是这个时期主要研究方向。

(3)人工智能的第一次热潮(60年代)与寒冬(70年代):视觉识别与语音识别

一、算法

1、无

二、算力

1、1973年,英国数学家莱特希尔报告,称视觉识别和听觉识别需要的计算量太大、数据处理量太大,当前无法满足。人工智能进入第一次寒冬。

三、数据

1、无

四、典型应用

1、智能问答:1966年,美国军方委托麻省理工学院的人工智能学院编写了ELIZA智能问答系统。这是自然语言对话技术的开端。

2、视觉识别和听觉识别应用于机器人:1967年,日本早稻田大学发明WABOT-1机器人原型,有摄像头视觉和麦克风听觉装置。这是视觉识别和听觉识别的开端。

(4)人工智能的第二次热潮(80年代)与寒冬(90年代):专家系统

一、算法

1、1982年,英国科学家霍普尔德发明了具有全新学习能力的Hopfield神经网络算法。与此同时,杰佛里辛顿(深度学习之父)和大卫鲁梅哈特发明了可以训练的反向传播神经网络。

2、1988年,美国科学家朱迪亚皮尔(贝叶斯网络算法发明人),将概率论方法引入人工智能推理。

他们将人工智能的“智能性”又往前推进了一步。

二、算力

1、1982年,日本期望研发大规模多CPU并行计算机,来解决人工智能所需的计算量问题。当时已经能够做到512颗CPU并行计算。但其不通用性,很快被Intel的x86芯片架构超越。

三、数据

1、无

四、典型应用

1、基于规则的推荐技术应用于专家系统:1980年,卡耐基梅隆大学研发的XCON垂直专家系统投入使用,具有2500条规则,专门用于自动选配计算机配件。由于垂直应用,所以计算量和数据处理量大大收敛。

但当时,神经网络、概率统计方法,与专家规则系统并未整合,这让专家系统并未具备自学习能力,而且维护专家系统规则越来越复杂。人工智能硬件又遇到了第二次寒冬。

(5)90年代视觉识别和语音识别的突破

一、算法

1、1997年,两位德国科学霍克赖特和施米德赫伯 提出了长期短期记忆(LSTM), 适用于手写识别和语音识别的递归神经网络

二、算力

1、1997年,IBM用480块x86 CPU搭建深蓝Deep blue计算机战胜了人类世界象棋冠军卡斯帕罗夫。

三、数据

1、1995年,理查德华莱士开发了新的聊天机器人程序Alice,它能够利用互联网不断增加自身的数据集,优化内容。

四、典型应用

1、手写文字图像识别:1989年,贝尔实验室的雅恩乐昆使用卷积神经网络技术,实现了人工智能识别手写邮政编码数字图像。

2、语音识别:1992年,李开复用统计学方法,实现了连续语音识别。

3、机器人:2000年,日本本田公司发明了机器人ASIMO,有着更高效果的视觉识别与听觉识别能力。

(6)2006年以后的深度学习

一、算法

1、2006年,杰弗里辛顿出版了《Learning Multiple Layers of Representation》奠定了神经网络的全新架构。

2、2007年,在斯坦福任教的华裔科学家李飞飞,发起创建了ImageNet项目。自2010年开始,ImageNet每年举行大规模视觉识别挑战赛。2012年由多伦多大学在挑战赛上设计的深度卷积神经网络算法,被业内认为是深度学习革命的开始。

3、2014年,伊恩·古德费罗提出GANs生成对抗网络算法,用于无监督学习的人工智能算法。

4、2018年,Google推出BERT模型、OpenAI推出GPT-2模型,均刷新了自然语言阅读理解与生成的人类历史最高效果。

目前,GAN正在从视觉处理领域走向更普遍领域,强化学习也正在从游戏对抗训练领域走向更普遍领域,这会让数据无监督标注、无监督训练更前进一步。

二、算力

1、2006年,AWS云计算发布。2006年,Hadoop大数据存储与计算平台发布。2014年,Spark内存实时计算框架发布。

2、2009年,吴恩达开始研究使用图形处理器(GPU而不是CPU)进行大规模无监督式机器学习工作。2017年,Google推出TPU 人工智能计算专用芯片。

三、工具

1、2016年,Google开源推出Tesorflow深度学习平台。2016年和2017年,谷歌发起了两场轰动世界的围棋人机之战,其人工智能程序AlphaGo连续战胜曾经的围棋世界冠军韩国李世石,以及现任的围棋世界冠军中国的柯洁。

2、2018年,Google开源推出Dopamine强化学习平台。

基于这两个开源平台产生了大量代码库,带来了人工智能应用的普及。

四、数据

1、2000年以后,爬虫与搜索、互联网应用、电子商务应用、SaaS应用、Open API开放平台被广泛应用,造成非结构化数据大爆炸。

2、2014年,4G大规模普及(数据传输性能)、智能手机(高清摄像头与麦克风)大规模普及,导致智能手机语音、图像、视频多媒体数据大爆炸。

3、2014年,IoT智能产品流行,导致传感器时序数据大爆炸。

五、典型应用

1、智能会话:2014年,Amazon推出Echo智能音箱和智能会话Alexa。2016年,Apple公司推出Siri。

2、视觉识别和听觉识别应用于智能汽车:2009年,谷歌开始秘密测试无人驾驶汽车技术;2014年,谷歌成为第一个在通过美国州自驾车测试的公司。

3、机器人:谷歌2013年还曾收购了世界顶级机器人技术公司:波士顿动力学公司,2017年又出售给日本软银公司。

(7)应用场景总结

回顾人工智能发展这60多年,似乎典型应用并不多,咱们就不提搞比赛搞秀的下棋游戏大战,真正商业应用的人工智能只有两类:

1、专家系统、智能问答、智能会话。这是典型的NLP领域。如果说Google和百度搜索也算NLP,那么人工智能NLP过往,就是两个应用:智能问答和会话、搜索和推荐

2、可以视觉识别和听觉识别的硬件(消费者服务机器人、音箱、无人驾驶汽车、无人机、手机)。即使在中国人工智能这么热,也大多去抢海康威视大华工业级摄像头的市场,搞安防监控、交通监控、消防监控、安全生产监控、环保监控、金融刷脸认证、零售无人商店刷脸识别、线下营销广告自动消费者识别。

(8)尾巴:微软亚洲研究院

微软亚洲研究院,1998年成立(美国互联网在1994年开始爆发),是全球唯一的专门研究人工智能的研究院。成立已经20年。

但似乎微软亚洲研究院起了个大早、赶了个晚集。人才倒是培养了不少,但大多流落业界或者自己创业,并无给微软自己带来好处。我也在思考这个问题到底出在哪里了?

现在的人工智能,是典型的数据科学。但微软作为工具产品公司,错过了互联网时代、智能手机时代,手里没数据。

互联网公司几乎都是羊毛出在狗身上(广告模式),智能手机公司是一半狗毛一半羊毛(手机硬件赚钱,AppStore也挣钱)。微软是工具软件产品商业模式,是羊毛只能出在羊身上。所以微软对开源免费这事一直观望、犹犹豫豫。所以微软也开源,但一直不是很大力。这在工具方面就差强人意了。

另外,虽然微软看着AWS搞云,自己也于2008年也开始搞云,但因为云计算是软硬一体化的、带运营运维服务的,这是微软作为工具软件产品公司从来没有干过的,而且其收入结构/成本结构/利润结构也不一样,所以微软对搞云也一直犹犹豫豫的,直到2014年纳德拉上台来才强力做云。这就在算力方面滞后了。

而且很奇怪的是,微软亚洲研究院也一直没有在算法方面有开创性的东西。虽然ResNet在2014年ImageNet比赛中获得图像分类第一名,但只是改进型,不是开创型。从2007年洪小文上任微软亚洲研究院院长,按说是时间点并不晚。

缺数据、平台与生态不给力、算力发展也滞后,算法也没有开创性研究成果。

好不容易折腾了个微软小冰智能会话、Bing搜索,还内部一顿权力斗争,沈向洋的离开不言而喻。


上一篇:教授团队获国家科学技术进步奖特等奖        下一篇:没有了

上一篇:教授团队获国家科学技术进步奖特等奖

下一篇:没有了

热门搜索