n阶方阵可进行对角化的充分必要条件是:
n阶方阵存在n个线性无关的特征向量
推论:如果这个n阶方阵有n个不同的特征值,那么矩阵必然存在相似矩阵
如果阶n方阵存在重复的特征值,每个特征值的线性无关的特征向量的个数恰好等于该特征值的重 复次数
可对角化矩阵和映射在线性代数中有重要价值,因为对角矩阵特别容易处理: 它们的特征值和特征向量是已知的,并通过简单的提升对角元素到同样的幂来把一个矩阵提升为它的幂。
数aij位于矩阵A的第i行第j列,称为矩阵A的(i,j)元,以数 aij为(i,j)元的矩阵可记为(aij)或(aij)m × n,m×n矩阵A也记作Amn。
元素是实数的矩阵称为实矩阵,元素是复数的矩阵称为复矩阵。而行数与列数都等于n的矩阵称为n阶矩阵或n阶方阵。
矩阵分解是将一个矩阵分解为比较简单的或具有某种特性的若干矩阵的和或乘积 ,矩阵的分解法一般有三角分解、谱分解、奇异值分解、满秩分解等。
矩阵可对角化的充分必要条件是:
1、n阶方阵存在n个线性无关的特征向量
推论:如果这个n阶方阵有n个不同的特征值,那么矩阵必然存在相似矩阵
2、如果阶n方阵存在重复的特征值,每个特征值的线性无关的特征向量的个数恰好等于该特征值的重 复次数
可对角化矩阵和映射在线性代数中有重要价值,因为对角矩阵特别容易处理: 它们的特征值和特征向量是已知的,并通过简单的提升对角元素到同样的幂来把一个矩阵提升为它的幂。若尔当-谢瓦莱分解表达一个算子为它的对角部分与它的幂零部分的和。
扩展资料:
如果A有n个线性无关的特征向量 ,与它们对应的特征值是 ,以 为列向量组作成一个可逆矩阵T,令 ,就得到 的n个线性无关的特征向量 ,用 作为V的基,则上述方程组成立,从而 在这组基下的矩阵是对角矩阵 B,并且 。
证明:若 A可对角化,根据定理1,它有n个线性无关的特征向量,将它们按所属的特征值进行分组得到特征向量组
其中子组 中各向量同属特征值 ,它们一定是A的特征子空间 的基(否则将不构成所在特征子空间的基的各子组扩充成所在特征子空间的基。
本回答被网友采纳是不是这样的:
A - E =
[ -2, -2, -2]
[ 0, 0, x]
[ 0, 0, 0]
所以只要x ≠ 0矩阵A就可对角化?
只要x =0矩阵A就可对角化。上面写错了,是特征值为1时,对应的特征值矩阵的秩要等于1.
追问还是没有完全弄懂,我不知道什么是代数重数,什么是几何重数?
那么特征值为2时,是否对应的特征值矩阵的秩要等于2呢?
这里特征值1的重数是2,则该特征值对应特征向量必须有2个线性无关的,即特征矩阵构成的齐次线性方程组的基础解系中所含解向量的个数为2个。
特征值1的重数是2,即代数重数,线性无关的特征向量为2个,即几何重数。