视频字幕
特征值和特征向量是线性代数中的核心概念。当一个矩阵作用于某个向量时,如果这个向量的方向保持不变,只是长度发生变化,那么这个向量就是特征向量,而长度变化的倍数就是特征值。
特征向量的定义是:对于矩阵A,如果存在非零向量v,使得Av等于λv,其中λ是一个标量,那么v就是A的特征向量,λ是对应的特征值。这意味着矩阵变换只改变向量的长度,而不改变其方向。
特征值决定了特征向量如何被缩放。当特征值大于1时,向量被拉伸;当特征值在0到1之间时,向量被缩短;当特征值为负数时,向量方向反转并缩放;当特征值为1时,向量保持不变。
让我们通过一个具体例子来计算特征值和特征向量。对于矩阵A,我们求解特征方程det(A-λI)=0,得到特征值λ₁=3和λ₂=2。对应的特征向量分别沿x轴方向和对角线方向,变换后分别被缩放3倍和2倍。
特征值和特征向量在众多领域有重要应用。在数据科学中用于主成分分析和降维,在图像处理中用于压缩和变换,在物理学中描述量子态和振动模式,在工程中分析结构稳定性,在计算机科学中用于网页排名算法。它们揭示了线性变换的本质特性,是现代科学技术的重要数学工具。