量子机器学习及区块链技术导论
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3 人工智能的曲折发展

进入20世纪70年代,人工智能并没有迎来井喷式的发展,反而遭遇到了首个瓶颈期。从美国到欧洲、从学术界到企业,整个行业出现了项目无法按期交付、资金大量撤出、研究人员转向等现象,对人工智能的乐观期待受到了挫败。回顾当初,人工智能遭受挫败的主要原因是计算复杂度与计算能力不匹配,即当时的计算能力达不到人工智能的要求;此外,当时的互联网还远未普及,人工智能中必不可缺的各种数据,在当时的积累还是很少的。

1969年,Marvin Minsky和Seymour Papert从数学的角度证明了单层神经网络甚至连简单的异(OR)和异或(XOR)等问题都无法解决(异或问题就是当输入的两个值不相同时,输出结果为1,反之为0),自此神经网络在学术界进入“冰河期”。

1982年,物理学家John Hopfield提出了一种名为Hopfield的神经网络。Hopfield网络的单元只能接收两个不同的值(-1或1,也可以是0或1,具体的值取决于输入的大小是否达到某个设定的值)。在网络结构上,Hopfield神经网络是一种单层全连接的反馈型神经网络。与20世纪60年代提出的神经网络的不同之处是,Hopfield神经网络从输出到输入有反馈连接。在多层神经网络中,误差是一层一层地传递和放大的,就好像让一个人看图说话,然后告诉下一个人,到最后一个人的时候往往描述的内容与第一个人说的内容已相差十万八千里了。反馈的作用就是让每个人不仅可以听到描述,而且还可以和讲述的人反复验证他的理解是否正确,这种方法能保证到最后一个人描述的内容与第一个人描述的内容差异尽可能小。Hopfield神经网络示意图如图1.6所示。

img

图1.6 Hopfield神经网络示意图

1986年,Rumelhart和McCelland提出了后向传播(Back Propagation,BP)的方法。具体来说就是,对于每个输入的理想输出和真实输出(如在进行动物分类时,输入的是动物的图像,理想输出应该是动物的名称),根据二者之间的差值来反复调整网络,直到二者之间的差值达到令人满意的程度为止。后向传播使得大规模神经网络的训练成为可能,这意味着人工智能的第一次复兴。BP神经网络示意图如图1.7所示。

img

图1.7 BP神经网络示意图

20世纪80年代末,美国开始大幅削减对人工智能研究的资助。特别是从1990年开始,DARPA研制的人工智能计算机没能实现。1991年,所谓的“第五代工程”并未实现,事实上其中一些目标,如“与人展开交谈”,此后十年内也未实现。时任的DARPA负责人认为人工智能并非“下一个浪潮”,因此将经费投到了相对更容易出成果的项目上。

Geoffrey Hinton是近年来人工智能领域最响亮的名字,这位加拿大多伦多大学的教授从2004年开始就以“深度学习”替换“神经网络”,同时和蒙特利尔大学的Yoshua Bengio教授一起攻克神经网络面临的难题,于2006年实现了训练深层神经网络的算法,于2012年在ImageNet上首次使用深度学习技术战胜传统技术,将深度学习的研究推到一个新的高峰。

2016年,Google旗下DeepMind公司的智能系统AlphaGo,在韩国首尔对战世界围棋冠军、职业九段选手李世石,最终AlphaGo以4:1战胜李世石;2017年,我国选手柯洁和AlphaGo展开三次较量,柯洁以0:3败北。

以神经网络为代表的人工智能技术开始被广为人知,成为投资者、研究机构和学者关注的对象。从农田到华尔街、从工厂到大学、从家庭到单位,各行各业各领域都发现,自己的岗位和工作内容多多少少已受到人工智能技术的渗透和影响。