线性代数之奇异值(SVD)分解

Tags: ,

在线性代数中,SVD(Singular Value Decomposition)是对实数矩阵(甚至复数矩阵)的一种因式分解。在信号、统计、图像图形学中都有应用。

SVD非常强大且实用,因为数学界前辈已经证明任意的一个矩阵都可以做SVD分解。这一点特别重要,因为相比SVD分解,和SVD相近的特征值分解只能应用于方阵。

第二个重要的点是:SVD分解可用来解决非方阵不能计算逆矩阵的问题。

SVD的定义

先给出公式的全貌:

设有一个m X n的矩阵M,它的SVD分解是:

\[ M = UΣV^{*} \]

其中:

一些补充:

  1. U矩阵的m个列向量、V的n个列向量分别被称为M的左奇异向量,和M的右奇异向量
  2. 约定Σ矩阵的对角线上的奇异值\(\sigma _{i}\)用降序排列
  3. 由第2点可以看出,Σ矩阵完全由M决定,和U、V无关

SVD和特征值分解的联系

  • M的左奇异向量 是 \(MM^{*}\)的特征向量
  • M的右奇异向量 是 \(M^{*}M\)的特征向量
  • M的非零奇异值(即Σ的对角线上的元素)分别是\(M^{*}M\)以及\(MM^{*}\)的所有非零特征值的开平方

由单式矩阵的定义,知:

\[ U^{*}U = I = U^{-1}U \]

\[ V^{*}V = I = V^{-1}V \]

\[ U^{*} = U^{-1} \]

\[ V^{*} = V^{-1} \]

由矩形对角矩阵的定义,知:

\[ Σ_{m,n}Σ_{m,n}^{*} = Σ_{m,n}Σ'_{n,m} = D_{m,m} \]

\[ Σ_{m,n}^{*}Σ_{m,n} = Σ'_{n,m}Σ_{m,n} = D_{n,n} \]

(D = Diagonal Square Matrix)

即,Σ和Σ的转置相乘,等于一个新的方阵D,D的阶数等于左边的Σ矩阵的行数;D还是一个对角方阵,且对角线上的元素分别是Σ的对角线上的元素的平方。

再根据SVD公式:

\[ M = UΣV^{*} \]

有:

\[ M^{*}M = V\Sigma ^{*}U^{*}U\Sigma V^{*} = V\Sigma ^{*}(U^{*}U)\Sigma V^{*} = V\Sigma ^{*}\Sigma V^{*} = V(\Sigma ^{*}\Sigma )V^{-1} \]

\[ MM^{*} = U\Sigma V^{*}V\Sigma ^{*}U^{*} = U\Sigma (V^{*}V)\Sigma ^{*}U^{*} = U\Sigma \Sigma ^{*}U^{*} = U(\Sigma \Sigma ^{*})U^{-1} \]

右边的东西符合特征分解的定义,所以上述两式子都是特征分解。

SVD的几何意义以及应用

推荐阅读这篇文章:http://blog.chinaunix.net/uid-20761674-id-4040274.html

英文原文:http://www.ams.org/samplings/feature-column/fcarc-svd

不过这文章只讲了和图像有关的应用,实际上,SVD的应用非常广泛,比如机器学习领域也在用。

SVD的求法

SVD的解法有很多种而且看起来很复杂,比如这篇文章就列举了很多种:http://www.cs.utexas.edu/users/inderjit/public_papers/HLA_SVD.pdf

因为矩阵有稠密和稀疏之分,所以针对不同的矩阵就有不同的解法。学习SVD的解法想必是一件艰苦的事情。因为目前还没有深入学习SVD的需求,所以博主就此罢笔。

参考资料

https://en.wikipedia.org/wiki/Singular_value_decomposition

(未经授权禁止转载)
Written on October 27, 2015

写作不易,您的支持是我写作的动力!