深度学习及自动驾驶应用
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3.2 深度学习的研究及应用进展

深度学习是神经网络发展到一定时期的产物,也和人工智能发展一样起伏,如图1.6所示。最早的神经网络模型可以追溯到1943年McCulloch和Pitts提出的MP神经元数学模型,其大致模拟了人类神经元的工作原理,但需要手动设置权重,使用十分不方便。1958年,Rosenblatt教授提出了单层感知机模型(Perception),这个可以看作是第一代神经网络模型,相比MP模型,该模型能更自动合理地设置权重,能够区分三角形、正方形等基本形状,让人类觉得有可能发明出真正能感知、学习、记忆的智能机器。但由于其基本原理的限制,同样存在较大的局限,难以展开更多的研究。1969年,Minsky教授等证明了单层感知机模型只能解决线性可分问题,无法解决异或XOR问题,并且否定了多层神经网络训练的可能性,甚至提出了“基于感知机的研究终会失败”的观点,此后十多年的时间内,神经网络领域的研究基本处于停滞状态。

20世纪80年代,计算机技术飞速发展,计算能力相较以前也有了质的飞跃。1986年,RuMelhart教授团队提出了反向传播算法(Back Proppagation,BP)。BP算法的提出引领了神经网络研究的第二次高潮。1986年,Hinton等提出了第二代神经网络,将原始单一固定的特征层替换成多个隐藏层,激活函数采用Sigmoid函数,利用误差的反向传播算法来训练模型,能有效解决非线性分类问题。1989年,Cybenko和Hornik等证明了万能逼近定理(universal approximation theorem):任何函数都可以被三层神经网络以任意精度逼近。同年,Yan LeCun等发明了卷积神经网络用来识别手写体,当时需要3天来训练模型。1991年,反向传播算法被指出存在梯度消失问题。此后十多年,各种浅层机器学习模型相继被提出,包括1995年Cortes与Vapnik发明的支持向量机,神经网络的研究被搁置。

图1.6 深度学习发展历程

2006年,Geoffrey Hinton等人提出了深度置信网络(Deep Belief Networks,DBN),通过逐层贪婪预训练和微调的方法,成功地训练深层网络。这个过程为深度学习的复兴奠定了基础。受到反向传播算法和DBN的启发,深度学习开始以多层神经网络为基础,并在计算机视觉领域迅速取得突破。2010年,美国国防部DARPA计划首次资助深度学习项目。2011年,Glorot等提出ReLU激活函数,能有效抑制梯度消失问题。深度学习在语音识别上最先取得重大突破,微软和谷歌先后采用深度学习将语音识别错误率降低至20%~30%,是该领域10年来最大突破。

2012年,Hinton和他的学生Alex Krizhevsky将ImageNet图片分类问题的Top5错误率由26%降低至15%,从此深度学习进入爆发期。2013年,欧洲委员会发起模仿人脑的超级计算机项目,同年1月,百度宣布成立深度学习研究院。Dauphin等在2014年,Choromanska等在2015年分别证明局部极小值问题通常来说不是严重的问题,消除了笼罩在神经网络上的局部极值阴霾。2014年,谷歌收购了深度学习研究团队DeepMind,进一步推动了深度学习的发展。2014年,深度学习模型Top-5在ImageNet竞赛上拔得头筹,同年,腾讯和京东也分别成立了自己的深度学习研究室。

2015年开始,由DeepMind(DeepMind Technologies Limited)开发的人工智能围棋程序AlphaGo在一系列比赛中取得了非凡的战绩。2015年10月5日,AlphaGo与欧洲围棋冠军樊麾的对局,樊麾先手,AlphaGo获胜。2016年3月9—15日,AlphaGo与世界围棋冠军李世石进行五局对决(Go Challenge Match),AlphaGo以4比1战胜李世石。这一比赛引起了全球的轰动,被认为是人工智能在围棋上的重大突破。2017年5月23日,AlphaGo与中国围棋世界冠军柯洁进行三局对决(Future of Go Summit),AlphaGo在这三局对决中战胜了柯洁,但这也是AlphaGo正式退役前的最后一场公开比赛。AlphaGo的战绩对于人工智能领域产生了深远的影响,它不仅证明了深度学习和强化学习在复杂游戏中的潜力,还加速了人工智能在各个领域的发展。AlphaGo的成功也让更多的人认识到了人工智能在解决复杂问题上的巨大潜力。

2017年,自监督学习在图像和语言领域取得了显著进展。使用自监督学习算法的预训练模型为后续任务提供了更好的初始化。AlphaGo Zero的出现引发了强化学习领域的热潮,它证明了无须人类专家知识的情况下可以学习玩弈游戏。生成对抗网络(GAN)的发展导致了更逼真的图像合成,并且能够生成高分辨率的图像。

2018年,BERT(Bidirectional Encoder Representations from Transformers)模型的提出引发了预训练模型的革命,对于自然语言处理任务带来了显著的性能提升。2019年,OpenAI发布的GPT-2模型引发了广泛的关注和讨论。GPT-2是一个具有1.5亿个参数的大型语言模型,能够生成逼真的文本,但同时也引发了有关人工智能伦理和虚假信息生成的担忧。同时2019年深度学习在计算机视觉任务上的应用继续取得进展,在目标检测、图像分割和实例分割方面取得较大进展。

2020年,更多的自监督学习方法被提出,如Contrastive Learning、Momentum Contrast等。GPT-3语言模型也在2020年发布,GPT-3拥有1750亿个参数,展示出强大的自然语言理解和生成能力。同时在BERT的基础上,出现了如RoBERTa、ALBERT、ELECTRA等改进版本,持续推动着自然语言处理任务的进展。

2022年底,OpenAI发布了ChatGPT模型,ChatGPT采用了Transformer架构,具有生成式预训练和双向Transformer编码的特点。ChatGPT技术的发展与大模型进化密不可分,两者相互促进、共同发展。ChatGPT是OpenAI在GPT系列模型的基础上进行优化和改进的结果,而GPT系列模型也是大模型进化中的一部分。2023年3月16日,百度正式发布大语言模型生成式AI产品“文心一言”,文心一言是知识增强的大语言模型,基于飞桨深度学习平台和文心知识增强大模型,持续从海量数据和大规模知识中融合学习,具备知识增强、检索增强和对话增强的技术特色。ChatGPT类工具进一步引爆了全球人工智能热潮,未来,随着技术的不断进步和数据的不断增长,大模型的规模和性能还将继续提升,为人工智能的发展带来更多的可能性。

深度学习首先在图像识别和语音识别任务中取得了突破,然后快速延伸到视觉、语音和自然语言处理等领域更广泛的任务场景中,并展现出了极强的通用性。在技术快速发展的同时,也带动对应领域进入大规模实际应用阶段,并进一步向传统的各行各业拓展落地。基于深度学习的人工智能技术已从互联网开始向更广泛行业落地,促进传统行业智能转型,提升效率,同时催生新的智能产品和产业。在自动驾驶领域,深度学习技术可应用到环境感知、智能决策和规划控制等多个方面。在医疗领域,典型应用包括医疗影像辅助诊断、医学文本和病历挖掘分析、智慧医疗问答和导诊等,深度学习在生物医药领域也开始有更多的应用尝试。在工业制造领域,基于深度学习视觉技术的自动化质检、分拣方案,可以将制造业工人从重复、低效的体力劳动中解放出来,极大地提升生产效率,也使质量得到更可靠保证。除此之外,深度学习技术也正广泛应用于农业、林业、电力、通信、城市管理等诸多行业和任务场景。

可以说,深度学习不论是技术还是应用,近十年来均取得了巨大突破。深度学习虽然还有不少局限性,但其激动人心的进展已经将人工智能带上了一个新台阶。当下,在深度学习推动人工智能技术向更广泛应用落地的同时,深度学习技术本身也还在不断进化。当然,深度学习仍然面临很多其他挑战,比如模型的复杂性加剧了可解释性的问题,大数据和大算力对深度学习的推广普及也是制约因素。这些问题除了在深度学习技术层面尝试解决,目前业界也更加关注深度学习框架和平台层面的解决方案。