数据收集完成后,他们用辛顿2006年提出的深度学习分层训练模型和自我编码解码校验方式去自动对这1000 万张图片进行特征抽取和分析。这一项目的目标之一是查看该模型的分层抽象特征提取方式是否能够最终产生一批高度异化的“祖母神经元”。结果该实验不但发现了模拟状态的祖母神经元的存在,而且在抽象最高层形成物体判断的神经元中居然有一只是对应猫的面部图像(图9),也就是说通过深度学习,该人工大脑形成了对猫的印象(古希腊哲学家柏拉图和其学生亚里士多德在人对客观世界的不同对象的概念形成中到底是先有绝对主观存在还是从客观形成有意见分歧。从谷歌的大脑实验来看,亚里士多德的客观形成论得到了验证)。
图9 这是谷歌大脑用深度学习方式分析了成千上万张猫的图片后形成
的对猫的“记忆”
除了辛顿等在深度学习领域成果频出外,2010 年以后在瑞士人工智能实验室(IDSIA)担任主任的施米德休伯和他的学生们也不断取得突破。他们利用长短记忆时间递归神经网络识别序列信息的优势在各种图像识别比赛中夺魁,其中包括德国的交通标志自动识别比赛、国际汉字、阿拉伯文等手写体识别比赛。2010年他的3个博士生创立了深思(DeepMind)公司,根据深度学习理论和对数据流的研究开发出了能够像人一样通过观察普通人玩街机游戏的画面来了解游戏规则,再通过学习的规则去玩同样的游戏,甚至击败人类对手。2014该公司被谷歌
以5亿美元收购。2016年3月,该团队设计的AlphaGo围棋对抗程序以4胜1负的战绩击败了人类围棋冠军李世乭。
在目前这轮以深度学习为代表的人工智能新高潮里,企业界早已通过收购和人才猎取而投入了大量的资本。谷歌董事长施密特公开表示机器学习是谷歌目前最主要的工作。2013年谷歌通过收购辛顿的
DNNresearch 公司,将包括辛顿和他的几个学生在内的一批人才收揽在旗下。随后谷歌又在2015年收购了DeepMind公司,把欧洲的深度学习专家收拢到谷歌旗下。Facebook创始人扎克伯格在读完深度学习的论文后,从纽约大学高薪聘走了燕存乐。亚马逊资助西雅图的华盛顿大学计算机系从卡梅挖来了盖斯成(Carlos Guestrin)夫妇,后者与亚马逊合作开发机器学习项目。而在这之前,谷歌从该系挖走了7 名计算机系教授。斯坦福大学的吴恩达则被百度从谷歌挖走,成为硅谷百度研究院的首席研究员。
这些投入会不会最终仍然以泡沫破裂收场?答案很有可能是肯定的。
智能与超越
2014 年牛津大学的博斯特伦(NickBostrom)在《超级人工智能:路径,危险和策略》一书里提出,人工智能技术很可能在不久的将来孕育
出在认知方面全面超越人类的超级智能(super intelligence)。他认为超级智能在给人类社会带来好处的同时也造成了人类本身的生存危机(existentialrisk)。2015年1月包括物理学家霍金、企业家马斯克等在内的主要来自欧洲的科学和科技界精英联名发表了一封公开信,敦促业界关注人工智能发展的稳健性和风险控制,通过合作和共识形成一个控制人工智能发展方向的框架,该公开信内容和所有签署人名单见http://futureoflife.org/AI/open_letter。
博斯特伦提出的超级智能可以追溯到冯诺依曼在1958 年的奇点(Singularity)预测。冯诺依曼认为随着计算机技术的不断发展,终有一天计算机将能够自我设计,从而进入自我进化状态。一旦进入到这一奇点状态,人类智能将与计算机智能迅速拉开差距,前者将逐渐被后者取代。
尽管这些学术界和产业界的名人表示了忧虑,但人类对大脑的研究,尤其是什么是智能的认识却仍然处在初级阶段。从目前人工智能的发展水平来看,笔者认为这种对机器本身所带来的威胁的担忧是没有任何必要的,真正需要防范的是强势集团对人工智能技术的滥用。
首先,从计算机的计算能力来进行一下比较。根据目前对人脑的最新认识,人的大脑皮层共有大约860亿神经元,能够进行200 MB/s 并行运算。新生婴儿大脑皮层每个神经元有大约2500个突触,2、3岁时增加到15000个,达到峰值。成年后每个神经元的突触数量大约为7500个。
相比之下,2012年设计的谷歌大脑的总共16000 个CPU神经元和10亿突触,远远低于人脑的复杂度。事实上就算把谷歌计算平台所拥有的全部服务器(总数量为几百万台)用于大脑认知模拟,也难以达到一个普通人脑的神经元的数量和关联度。
其次,对人脑智能的机制理解仍然处于一个初级阶段。比如德莱弗斯(Hubert Dreyfus)提出人脑主要是通过图像来思考的,这一现象背后的机制是什么?当把一个小箱子放到一个大箱子上,然后把下面的大箱子取走,这时小箱子会怎样?普通人通过大脑的图像预演可以很简单地回答这一问题,而理性流派的人工智能往往需要通过大量的事实积累和逻辑推理才能做出这一推论。以感性流派为理念的深度学习神经网络虽然有可能通过模式识别实现这一推理,但目前来看还没有在这方面迈出一步。
奔迈公司的创始人霍金斯的HTM理论就这一现象给出了比较有意思的理论框架[12]。该理论认为大脑皮层通过不断接收序列信息(sequenceinformation)来学习建立外部世界的感知-动作模型(sensory-motor model)的器官,通过接收—预测—反馈—调整再接收这一过程来调整记忆。对于大量涌入的序列数据(比如声音和动作),大脑皮层是通过稀疏分布的表达方式层层激发处理信息。信息激发到祖母神经元后根据以前记忆形成的预期开始向下激发相应的各种感知和动作神经元,这些预期与新的信息进行对比后,针对出现的偏差,相应
的神经元会做出新的突触连接调整。遗憾的是在实际应用方面,根据该理论开发出的软件还没能取得突破性进展。
最后,涉及一个比较抽象的哲学问题,就是什么是人的智能。60年前图灵用图灵测试来避免回答这一问题。今天对智能的认识可能也无法给出满意的答案。目前流行的深度学习只是人认知能力的增强版,就像汽车和飞机虽然比人速度快,但不能认为汽车或者飞机具有意识或者它们的运动智能超越了人类。