视频字幕
特征值和特征向量是线性代数中的核心概念。当我们用矩阵对向量进行线性变换时,大多数向量的方向都会发生改变。但是,总有一些特殊的向量,它们在变换后方向保持不变,只是长度发生了变化。这些特殊的向量就叫做特征向量,而长度变化的比例就是对应的特征值。
数学上,特征值和特征向量的定义是:对于一个方阵A和非零向量v,如果存在标量λ,使得Av等于λv,那么v就是A的特征向量,λ就是对应的特征值。这个等式表明,矩阵A作用在特征向量v上,结果仍然是v的标量倍数。例如,对于矩阵A等于3 1,0 2,向量v等于1 0是它的特征向量,对应的特征值是3。
从几何角度看,特征向量具有特殊的性质:它们在线性变换下方向保持不变,只发生长度的变化。特征值决定了这种变化的程度。当特征值大于1时,特征向量被拉伸;当特征值在0到1之间时,特征向量被压缩;当特征值为负数时,特征向量不仅改变长度还会反向。而普通向量在变换后通常既改变方向又改变长度。
计算特征值和特征向量有标准的步骤。首先建立特征方程:行列式A减λI等于0。然后求解这个方程得到特征值λ。接下来,对每个特征值,求解齐次线性方程组:A减λI乘以v等于零向量,得到对应的特征向量。例如,对于2×2矩阵,我们可以通过展开行列式得到关于λ的二次方程,求解后得到两个特征值和对应的特征向量。
特征值和特征向量在现代科学技术中有广泛应用。在数据科学中,主成分分析使用特征向量来找到数据的主要变化方向,实现数据降维。在工程学中,用于分析结构的振动模态。在计算机科学中,Google的PageRank算法就基于网页链接矩阵的主特征向量。在物理学中,量子力学的能量本征态就是哈密顿算符的特征向量。这些应用展示了特征值和特征向量作为理解线性变换本质工具的重要性。