矩阵特征值,特征向量的各种应用
(2013-09-11 22:54:48)[1] 对角化矩阵后求矩阵的幂。
[2] 图像处理:
把图像A看成矩阵,进一步看成线性变换矩阵,把这个训练图像的特征矩阵求出来(假设取了n个能量最大的特征向量)。用A乘以这个n个特征向量,得到一个n维矢量a,也就是A在特征空间的投影。今后在识别的时候同一类的图像(例如,来自同一个人的面部照片),认为是A的线性相关图像,它乘以这个特征向量,得到n个数字组成的一个矢量b,也就是B在特征空间的投影。那么a和b之间的距离就是我们判断B是不是A的准则。
[3] 主成分分析:
n维随机向量x的方差阵Var(x)(如果存在)是实对称阵,于是Var(x)可以对角化,所生成的对角阵的主对角线即Var(x)的诸特征根。
其中,对角化对应了一个正交阵L,生成的对角阵即Lx的方差阵。
也就是说,Var(x)的诸特征根恰是向量Lx各分量的方差。
根据Lx各分量的方差占方差总和的比重,确定降维的方式(从而确定提出的主成分的个数)。
本文来自: 人大经济论坛 计量经济学与统计 版,详细出处参考:
http://bbs.pinggu.org/forum.php?mod=viewthread&tid=203215&page=1
[4] PCA方法,选取特征值最高的k个特征向量来表示一个矩阵,从而达到降维分析+特征显示的方法;近的比如Google公司的成名作PageRank,也是通过计算一个用矩阵表示的图(这个图代表了整个Web各个网页“节点”之间的关联)的特征向量来对每一个节点打“特征值”分;再比如很多人脸识别,数据流模式挖掘分析等方面,都有应用,有兴趣的可以参考IBM的Spiros在VLDB‘ 05,SIGMOD ’06上的几篇文章。
特征向量不仅在数学上,在物理,材料,力学等方面(应力、应变张量)都能一展拳脚,有老美曾在一本线代书里这样说过“有振动的地方就有特征值和特征向量”,确实令人肃然起敬+毛骨悚然......
http://blog.csdn.net/lfkupc/article/details/4561564
以上整理来均来自网络