人工智能:模式识别
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

2.1 主成分分析

主成分分析(Principal Component Analysis,PCA),也称主分量分析,或K-L变换(Karhunen-Loeve Transform)[1]。下面对PCA方法进行介绍。

2.1.1 基本概念

X为一个N维随机向量,StXN×N协方差矩阵:

式中,EX)是随机向量X的数学期望。该协方差矩阵也称总体散布矩阵。容易证明St为非负定矩阵。

给定一组MN维训练样本X1,…,XM,则St的估计为

式中,m0为训练样本的均值向量,即

寻求一组标准正交且使得以下准则函数达到极值的向量ϕ作为投影轴:

其物理意义是使投影后所得特征的总体散布量最大。就每一个投影轴而言,模式样本在该轴上投影后,投影点的方差最大。

事实上,这一组最优投影轴应取为Std个最大特征值所对应的标准正交的特征向量ϕ1,…,ϕd。令Φ=(ϕ1,…,ϕd),则PCA变换如下:

Y作为X的特征表示,用于后续的分类或其他任务。从几何上讲,PCA变换是一个坐标变换,即Y是原始的模式向量X在一个新的、由标准正交的特征向量ϕ1,…,ϕd构成的坐标系中的坐标。

2.1.2 最小均方误差逼近

PCA变换是最小均方误差逼近意义下的最优表示。

ϕ1,…,ϕd,…,ϕNSt的一组标准正交的特征向量,对应的特征值满足λ1≥…≥λd≥…≥λN。由式(2-4)可得

易证明,是零均值随机向量X在最小均方误差逼近意义下的最优表示,换言之,它表示的均方误差比采用其他任何正交系统的d个坐标来展开X所引起的均方误差都要小。

一般地,模式X的样本均值m0未必为0,PCA变换式(2-4)可以修改如下:

模式样本X可以在最小均方误差逼近意义下重构如下:

式中,i=1,…,d

2.1.3 PCA变换的统计不相关性

PCA变换后,模式样本的PCA特征分量之间是统计不相关的。

设线性变换Y=ΦTX,其中,Φ=(ϕ1,…,ϕd),ϕ1,…,ϕd为PCA的一组最优投影轴。原始特征向量X变换为Y=(y1,…,ydT,其第i个分量为i=1,…,d。则yiyj之间的协方差为

yiyj的统计相关系数可表达为

由于ϕ1,…,ϕdSt的标准正交的特征向量,ij。故ρyiyj)=0,ij,即PCA变换后,模式样本的特征分量之间是统计不相关的。

2.1.4 小样本情况下的主成分分析

在训练样本的总数M小于训练样本的维数N的情况下,为了提高计算效率,常常借助于奇异值分解定理间接地求解St的特征向量。具体做法介绍如下[1,2]

定理2-1 (奇异值分解定理)设A是一个秩为rN×M矩阵,则存在两个正交矩阵

U=[u1,…,ur]∈RN×r, UTU=I

V=[v1,…,vr]∈RM×r,VTV=I

以及对角矩阵

Λ=diag[λ1,λ2,…,λr]∈Rr×r,λ1λ2≥…≥λr>0

使得

上述分解称为矩阵A的奇异值分解,A的奇异值。

由定理2-1,易得出以下结论,即推论2-1。

推论2-1λiAATATA非零特征值,uivi分别为AATATA对应于λi的特征向量,且满足

式(2-10)写成矩阵形式为

在主成分分析方法中,对于总体散布矩阵St,令A=[X1-m0X2-m0,…,XM-m0],则有

NM时,可以先求出矩阵所对应的特征值和特征向量,然后利用式(2-10)算出St的特征向量,从而降低直接求解的计算复杂度。