人工智能60年 从图灵测试到深度学习(3)

2019-02-15 18:31

主要学者莫拉维克(Hans Moravec)举例说:要让计算机如成人般地下棋是相对容易的,但是要让计算机有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的[7]。这一观点不仅认为模拟人脑是研究人工智能的基础,还进一步认为人工智能的培育和发展需要通过不断感知外界环境,根据环境做出反应来循序渐进地进行。这一过程中需要的并不是大量的推理,而是对外界信息的大量获取和快速处理。

还需要提及的是专家系统及人工神经网络维度的深化推动了超级计算技术的发展。从这一领域衍生出的计算机集群技术成为20世纪90年代信息领域高科技公司的计算平台,而这些平台又成为新一代人工智能技术的硬件基础。当然人工智能的再度发展还需要一个重要的因素,这一因素到了20世纪90年代才出现,这就是万维网。

网络人工智能

互联网的前身阿帕网起源于美苏冷战。20世纪80年代阿帕网已经通过大学和研究所等机构渗透到民间。1989年欧洲量子物理实验中心工作的伯纳斯李向实验中心正式提交了一份后来被称为“万维网蓝图”的报告[8]。这份报告提出了万维网框架的运行机制和实施方案。1990 年11 月,他在NeXT工作站上制作了第一个万维网浏览器和第一个网络服务

器,随后编写了执行万维网项目细节的网页,至此世界上第1个万维网站诞生。

1993年1月美国伊利诺大学为浏览万维网网站开发的UNIX 版本马赛克浏览器被放到该大学计算中心的免费FTP服务器上,不到两个月的时间就被下载了上万次。1993年12月《纽约时报》商业版头版介绍了马赛克,称其将创造一个全新的产业。马赛克的流行使得覆盖互联网的万维网成为新的连接世界的平台,也引发了以硅谷为中心的电子商务革命。1993年1月马赛克刚出现时,全世界只有50个万维网服务器,10 月份达到500 个,1994 年6月份增加到1500个,万维网开始以指数增长。

在万维网流行了3年后的1996年,斯坦福2个研究生发现用解n 元一次方程组的办法,可以把万维网的所有网页按照重要性进行排名,从而解决了网络用户面对以指数增长的网页信息进行有效搜索的难题,他们后来成立了谷歌公司[9]。差不多在相同的时间,刚上线一年多的亚马逊与明尼苏达大学的几位计算机专家合作,开始分析每个用户在其网站上购买的商品,并与其他用户的购买商品进行比较和关联,用得到的结果来个性化对网站浏览用户的商品推荐[10]。

谷歌的佩奇排名(PageRank)和亚马逊的协同过滤(collaborative filtering)推荐系统的共同特点是它们都通过使用简单的数学原理来处理海量数据达到目的。这种看似简单的指导思想解决了很多专家聚集在一

起都很难解决的问题。这就是互联网时代超大规模并行计算所带来的网络人工智能的共同特点。

不同的是,网络人工智能不再使用昂贵的超级计算机,而是用大量联结在一起的廉价服务器甚至是个人计算机来取得相同甚至更好的效果。在知识来源上,网络人工智能往往依靠成千上万的大众点滴贡献(crowdsourcing)而不是专家智慧。比如谷歌在计算网页的排名时使用的是不同网页之间的超文本链接信息,而这些链接是用户在创建网页时提供的。亚马逊的数据来源则是每个用户购买的商品信息。这些在个人看来再简单不过的信息被整合到一起进行处理后发挥出巨大的潜力,也使得数据挖掘成为网络人工智能的流行用语和代名词。

网络人工智能给人类社会带来的不仅是日常生活的方便,它们在很大程度上开始从各个方面影响社会发展进程。谷歌的搜索结果可以决定一个人的言论被关注的程度,而亚马逊的推荐则可以把许多质量好但没能得到推广的商品推荐给大众,引出“长尾定律”[11]。

随着业务量和数据量的增加,这些网络平台不断扩张,具备越来越强大的存储和计算能力。谷歌从1999年购买二手服务器开始搭建自己的计算平台到2012年第一次对外展示谷歌数据中心,其服务器的数量从最初的几十台发展到100多万台。同一时期亚马逊的弹性云平台服务器总量大概在50万台左右。电商巨擎的计算平台不仅仅在单机数量上达到了以往未有的高度,在架构、软件控制,甚至能耗上与传统的数据中心

相比也有诸多创新(谷歌在这一方面有最多的创新,比如谷歌的单机服务器自携备用电池,避免了为整个数据中心配备UPS所带来的额外成本;为了进一步节省空调能源消耗,部分数据中心采取循环水物理蒸发方式降温等(图5)。这些技术升级为2010年前后神经网络在深度学习方向的突破性发展提供了必要的平台。

图5 谷歌最早采取了数据集装箱方式来搭建数据中心,几千台服务器在生产商处按照标准方式配置到专门设计的集装箱结构中,再直接运输到数据中心,这些集装箱在设计上采用了很多先进的散热方式,为谷歌

节省了大量能耗

深度学习

20世纪50年代感知机流行时,霍普金斯大学的住院医生休伯尔和年轻教授威塞尔结识并成为学术搭档,开始了后来长达20多年的使他们获得诺奖的视觉神经方面的研究。1959年他们通过观察猫脑部视觉中枢对视网膜进入图像的处理方式发现,有些神经元对不同光强度或者不同角度的斜线有反应,另一些神经元对光感和简单斜线没有反应,但是对物体移动具有敏感性,即便这些物体的边界发生形变也不影响其激发。他们两人将前一类称为简单细胞,后一类称为复杂细胞。休伯尔和威塞

尔的这一发现和后来的研究给从事神经网络研究的计算机专家提供了重要的建模思路,比如视神经元对信息处理是分工分层进行的,不同神经元关注的对象特征不同,每一层神经元抽象出对象的部分特征进行处理,最后所有信息经过逐层激发,在中枢最高层激发对整个对象产生认知的“祖母神经元”。

20世纪60、70年代,通过回归分析来逐层学习和提炼最优的神经网络层数和节点数的方式出现。乌克兰数学家伊万科夫(A. G. Ivakhnenko)及其同事在1971 年发表过8 层神经网络模型。1979 年日本京都大学福岛邦彦(Kunihiko Fukushima)成功通过多层神经网络(neocognitro)学习进行手写字母的图像识别。1992年密歇根州立大学计算机系的翁巨扬提出了最大池化方式(max pooling)和卷积神经网络(convolution neural net)这一后来被广为传播和使用的深度学习算法。

深度学习能够在北美走向主流,与被戏称为“加拿大黑手党”的3个专注机器学习领域多年的计算机专家的坚持不懈有直接关系。他们是加拿大多伦多大学计算机系的杰弗里·辛顿(Geoffrey Hinton),曾经给辛顿做博士后的纽约大学计算机系教授燕存乐(Yann LeCun)和与燕存乐在贝尔实验室共同工作过的加拿大蒙特利尔大学教授约书亚·本吉奥(Yoshua Bengio)。

辛顿1970年从剑桥心理学专业本科毕业,1978 年从爱丁堡大学获得人工智能专业博士学位。他毕业时恰好遇到人工智能的第2次高潮,于


人工智能60年 从图灵测试到深度学习(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:5S推动的方法 - 图文

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: