AI+电信网络:运营商的人工智能之路
上QQ阅读APP看书,第一时间看更新

1.3 人工智能的技术现状与趋势

推动人工智能技术发展的动力主要来自3个方面:先进的算法、高性能计算(人工智能芯片)及大量的标记数据。本节主要内容为算法、人工智能芯片和数据的发展现状及趋势。

1.3.1 算法

机器学习(Machine Learning)是一门集多领域之大成的交叉学科,涉及计算机科学、统计学、系统辨识、逼近理论、神经网络、优化理论等诸多领域。基于数据的机器学习算法是现代人工智能技术中的重要方法之一,从样本数据出发寻找规律,利用这些规律对未来的数据或无法观测的数据进行预测。根据学习方法进行分类,可以将机器学习分为传统机器学习和深度学习。

传统机器学习算法主要包括逻辑回归、隐马尔可夫、支持向量机、k-近邻、Adaboost、贝叶斯及决策树等。传统机器学习算法在学习结果的有效性与学习模型的可解释性之间寻求平衡,为解决样本数量有限的学习问题提供了一种框架,主要用于样本数量有限情况下的概率密度估计、模式分类及回归分析等。

深度学习是建立深层结构模型的学习方法,又称为深度神经网络(通常指层数超过3层的神经网络),它将特征表示和特征学习合二为一。相比于传统的方法,深度学习放弃了可解释性,单纯追求学习的有效性。深度学习算法中比较典型的网络包括深度置信网络(DNN,Deep Neural Network)、卷积神经网络(CNN,Convolutional Neural Network)、受限玻尔兹曼机(RBM,Restricted Boltzmann Machine)和循环神经网络(RNN,Recurrent Neural Network)等。经过研究人员多年的摸索尝试和研究,已经产生了诸多深度神经网络的模型,大量应用于自然语言处理、图像识别、智能语音等人工智能核心技术领域。

此外,机器学习的常见算法还包括迁移学习、主动学习等。迁移学习是指当在某些领域数据量匮乏的情况下进行模型训练时,采用另一领域的数据获得的关系进行的学习。迁移学习可以将完成训练的模型参数迁移至新的模型,指导新模型训练,可以使模型更加有效地学习底层规则、减少对数据量的要求。目前的迁移学习技术主要在变量数量有限的小规模应用中发挥作用,如基于传感器网络的定位、文字分类等。主动学习是指利用算法查询出最有价值的未被标记的样本,然后交由专家进行标记,使用查询到的样本数据来训练分类模型,从而提高模型的准确度。主动学习可以有选择地获取知识,通过较少的、有价值的训练样本得到高性能的模型。

1.3.2 算力

人工智能芯片是指能够加速各类人工智能算法的计算芯片。深度神经网络对计算芯片的需求主要体现在两个方面:芯片与存储之间海量数据的通信,其中包括缓存和片上存储、计算单元和存储之间的数据交互;专用计算能力的提升,满足对卷积、残差及全连接等计算类型的大量计算需求,既能够提升运算速度,又可以降低功耗。在模型训练过程中,除了采用CPU或GPU外,许多公司针对不同场景、算法研发和使用了现场可编程门阵列(FPGA,Field Programmable Gate Array)及专用集成电路(ASIC,Application Specific Integrated Circuit),在终端推断环节,主要以ASIC为主。表1-7对比了GPU、FPGA、ASIC的性能、特点。

表1-7 GPU、FPGA、ASIC的性能、特点对比

CPU不适用于深度学习训练场景。早期的深度学习场景是基于CPU搭建的。但由于CPU本身是通用计算器,其主要优势集中于管理、调度和协调能力,可用于浮点计算的计算单元数量过少,无法满足深度学习,特别是训练环节的大量浮点运算需求,并且CPU线程(Thread)之间的数据通信需要访问全局内存,并行计算效率过低。

GPU以其性能优势成为目前深度学习训练场景的首选。GPU的关键性能是具有强大的并行计算能力,其适合深度学习计算的主要原因有以下两点:高带宽的共享缓存有效提升了海量数据通信效率,GPU通过访问共享内存就可以实现线程之间的数据通信;采用多计算核心提升并行计算能力。GPU具有大量的计算核心,应用吞吐量是CPU的100倍。

FPGA可在加快深度学习运算速度方面实现可重构、可定制,主要优点:算力强大,可以针对某一种运算,通过编辑重组电路的方式生成专用电路,从而大幅度地压缩计算周期;功耗低,FPGA功耗比是GPU的3倍;灵活性高,FPGA可以很方便地实现下层硬件控制操作技术,为算法的功能实现及算法优化留出了更大的空间。FPGA的主要缺点:FPGA应用往往都需要支持很大的数据吞吐量,这对于内存、带宽和I/O互连带宽的要求很高。

ASIC是高度定制的专用计算芯片,在性能上要高于FPGA,其局限性在于一旦制造完成就不能更改,初期成本高、开发周期长、进入门槛高。

1.3.3 数据

数据是人工智能发展的基石。从发展现状来看,人工智能技术能够取得突飞猛进的发展得益于良好的数据基础,海量数据为训练人工智能模型提供了充足的原材料。有些人工智能技术使用统计模型来进行数据的概率推算,比如图像、文本或语音,通过把这些模型暴露在数据的海洋中,使它们得到不断优化。当前,人工智能基础数据类型主要包括语音、语言类(包括声音、文字、语言学规则)、图像识别类(包括自然物体、自然环境、人造物体、生物特征等)及视频识别类。表1-8为全球部分人工智能公共数据集的情况。

表1-8 全球部分人工智能公共数据集的情况

1.3.4 人工智能技术的趋势

综上所述,人工智能技术在以下方面的发展有显著的特点,是研究未来人工智能趋势的重点。

(1)在算法上,迁移学习的研究和应用将更加广泛。迁移学习侧重对深度学习中知识迁移、参数迁移等技术的研究,能够有效提升深度学习模型复用性,同时对于深度学习模型的解释也提供了一种方法,能够针对深度学习算法模型的可靠性及不可解释性问题提供理论工具。

(2)在算力上,人工智能计算芯片将朝云侧和终端侧两个方向同时发展。在云侧计算芯片,目前GPU占据了主要市场,而以TPU为代表的ASIC只用在巨头企业的闭环生态。在未来,GPU、TPU等计算芯片将共同支撑人工智能运算,既存在竞争关系又能够长期共存,在一定程度上能够相互配合。FPGA有望在数据中心中以CPU+FPGA的形式作为有效补充。从终端侧计算芯片来看,这类芯片将针对功耗、延时、算力、特定模型、使用场景等特定需求,朝着不同的方向发展。

(3)在数据上,实现训练数据标注向人工与自动标注结合的方式转换,并不断提高自动标注在整个标注环节中的比例,最终实现标注的全自动化。加强交通、公共安全、教育、医疗等人工智能重点领域内的合作,建立整个行业数据的统一标准,规范数据质量,为人工智能的发展奠定良好的基础。