矩阵的特征值、特征向量、特征矩阵、迹、特征值分解

Tags: ,

定义

设A是数域F上的n阶矩阵,如果存在数域F中的一个数\(\lambda \)与数域上F的非零向量\(\vec \alpha \),使得: \[ A\vec \alpha = \lambda \vec \alpha \] 则称\(\lambda \)为A的一个特征值(根)(eigenvalue),称\(\vec \alpha \)为A的属于特征值\(\lambda \)的特征向量(eigenvector)。

显然从上式可以看出,\( A\vec \alpha \)和\(\vec \alpha \)平行。

将上式做一下变换:

\[ A\vec \alpha = \lambda \vec \alpha \]

\[ A\vec \alpha - \lambda \vec \alpha = \vec 0 \]

\[ A\vec \alpha - \lambda E\vec \alpha = \vec 0 \]

\[ (A - \lambda E)\vec \alpha = \vec 0 \]

\[ (\lambda E - A)\vec \alpha = \vec 0 \]

称:

  • \(\lambda E - A\)为A的特征矩阵

  • 行列式\(f(\lambda ) = |\lambda E - A|\)为A的特征多项式

  • \(|\lambda E - A| = 0\)为A的特征方程

  • \((\lambda E - A)\vec x = \vec 0\)是A关于该\(\lambda \)的齐次线性方程组

A的主对角线上元素之和称为A的(trace),记为tr(A),即

\[ tr(A) = a_{11} + a_{11} + \cdots + a_{nn} \]

迹和特征值有很重要的联系:

\[ tr(A) = \lambda _{1} + \lambda _{2} + \cdots + \lambda _{n} \]

特征值还和A的行列式有关系:

\[ |A| = \lambda _{1}\lambda _{2}\cdots \lambda _{n} \]

A的全部特征值和特征向量的求法

  1. 计算A的特征多项式
  2. 求特征方程的全部根,即矩阵A的全部特征值
  3. 对于A的每一个特征值\(\lambda \),求其相应的齐次线性方程组的一个基础解系\(\eta _{1},\eta _{2},\cdots \eta _{n-r}\),其中\(r=r(\lambda E - A)\),即r为矩阵A的特征矩阵的秩,A的属于该\(\lambda \)的全部特征向量为: \[ k_{1}\eta _{1} + k_{2}\eta _{2} + \cdots + k_{n-r}\eta _{n-r} \] 其中\(k_{1},k_{2},\cdots ,k_{n-r}\)是数域F上的一组不全为零的任意常数。

特征值的性质

  1. \(\lambda _{n} \)为矩阵\(A_{n} \)的特征值(n为正整数,表示维度)
  2. A可逆时,\(1/\lambda \)为\(A^{-1}\)的特征值
  3. 矩阵A与其转置矩阵\(A^{T}\)有相同的特征值
  4. \(k\lambda \)是矩阵kA的特征值(k是任意常数)。

迹的性质

  1. \( tr(A + B) = tr(A) + tr(B) \)
  2. \( tr(kA) = k\cdot tr(A) \)
  3. \( tr(A^{T}) = tr(A) \)
  4. \( tr(AB) = tr(BA) \)
  5. \( tr(ABC) = tr(BCA) = tr(CAB) \)
  6. 设A、B为n阶方阵,P为n阶可逆矩阵,且\(P^{-1}AP = B \),则有\(tr(A) = tr(B)\)

当A为投影矩阵P时

因为投影矩阵P可以把一个向量\(\vec b\)投影到一个空间的某一个向量,也就是\(P\vec b = \vec p\),这个式子和\( A\vec \alpha = \lambda \vec \alpha \)有一致的地方。

那么P的特征向量是什么呢?前面已经说到,\( A\vec \alpha \)和\( \vec \alpha \)是平行关系,那么就是说,如果\(\vec b\)在P的列空间之外,\(\vec b\)就不是P的特征向量,当\(\vec b\)在P的列空间内时,\(\vec b\)是P的特征向量。

比如当P对应一个平面时,这个平面内的任意一个向量\(\vec x\)都是特征向量(因为\(P\vec x = \vec x\),P作用于\( \vec x\)后还是得到\(\vec x\) )。

又因为\(P\vec x = \vec x = 1\cdot \vec x\),所以P的一个特征值是1。

但是,P还有其他的特征值。当向量\(\vec x\)正交于P的列空间时,有\(P\vec x = 0 \)。所以P的另一个特征值为0。

当A为旋转矩阵Q时

从上面的等式:\( A\vec \alpha = \lambda \vec \alpha \)可以知道如果A乘以一个向量后得到的新的向量仍然和原向量平行的话,A就有特征值。那么,当A是一个旋转矩阵时(旋转矩阵可改变一个向量的方向),是否还有特征值?事实是有的,但是是复数。

下面以二维空间下的旋转矩阵Q为例做一下验证,Q的效果是使得2维向量旋转90度:

\[ Q = \left[ \begin{matrix} cos(90)&-sin(90)\\ sin(90)&cos(90)\\ \end{matrix} \right] = \left[ \begin{matrix} 0&-1\\ 1&0\\ \end{matrix} \right] \]

\[ |Q| = 0 - (-1) = 1 = \lambda _{1}\lambda _{2} \] \[ tr(Q) = 0 = \lambda _{1} + \lambda _{2} \]

显然,\( \lambda _{1}\lambda _{2}\)无实数域的解,但是有复数解i和-i。

A的对角化(diagonalize)

设n阶方阵A存在n个线性无关的特征向量\(\vec x_{i}\),将这n个特征向量\(\vec x_{i}\)组成方阵S(也称为特征向量矩阵),则有:

\[ AS = A \left[ \begin{matrix} \vec x_{1}& \vec x_{2}& \cdots &\vec x_{n}\\ \end{matrix} \right] = \left[ \begin{matrix} \lambda _{1}\vec x_{1}&\lambda _{2}\vec x_{2}&\cdots &\lambda _{n}\vec x_{n}\\ \end{matrix} \right] \] \[ = \left[ \begin{matrix} \vec x_{1}& \vec x_{2}& \cdots &\vec x_{n}\\ \end{matrix} \right] \left[ \begin{matrix} \lambda _{1}&0&\cdots &0\\ 0&\lambda _{2}&\cdots &0\\ \vdots &\vdots& \cdots &\vdots\\ 0&0&\cdots &\lambda _{n}\\ \end{matrix} \right] \] \[ = S\Lambda \]

所以有:

\[ A = S\Lambda S^{-1} \]

这个式子称为A的\(S\Lambda S^{-1}\)分解,或特征分解(Eigendecomposition),或A的对角化。

根据这个式子可以知道:当方阵A可以被分解为某个矩阵\(S\)乘以某个对角矩阵\(\Lambda \)再乘以矩阵\(S^{-1}\)时,就是一次特征分解

可以对角化的前提是A有n个线性无关的特征向量。A有n个线性无关的特征向量的前提是,所有的\(\lambda \)都不重复(没有重根)。

当矩阵是对称方阵时

对称矩阵特性:

\[ A = A^{T} \]

代入特征值分解公式,有:

\[S\Lambda S^{-1} = (S\Lambda S^{-1})^{T} \]

\[ = (S^{-1})^{T} (S\Lambda )^{T} \]

\[ = (S^{-1})^{T}\Lambda ^{T}S^{T} \]

\[ = (S^{-1})^{T}\Lambda S^{T} \]

于是有:

\[ S = (S^{-1})^{T} \]

\[ S^{-1} = S^{T} \]

所以对称矩阵的特征值分解公式是:

\[ A = S\Lambda S^{-1} = S\Lambda S^{T} \]

应用

矩阵的n次幂的快速解法

对于A的幂,有一个性质:

  • 如果有 \( A\vec x = \lambda \vec x \),则有\( A^{2}\vec x = AA\vec x = \lambda A\vec x = \lambda \lambda \vec x = \lambda ^{2}\vec x\)

  • \( A^{2} = S\Lambda S^{-1}S\Lambda S^{-1} = S\Lambda ^{2}S^{-1} \)

这个性质说明,A的n次幂的特征值等于\(\lambda ^{n}\),且无论n等于多少(当前n得是正整数),特征向量\vec 保持不变。

求逆矩阵

特征分解还有一个用法是,求A的逆矩阵:

\[ A^{-1} = (S\Lambda S^{-1})^{-1} =S\Lambda ^{-1}S^{-1} \]

\(\Lambda\)的逆矩阵是非常容易求的,因为它是一个对角矩阵,所以把对角线上的\(\lambda \)都变成\(1/\lambda \)即可。

(未经授权禁止转载)
Written on September 26, 2015

写作不易,您的支持是我写作的动力!