视频字幕
非负矩阵分解是一种重要的矩阵分解技术。它将一个非负矩阵V近似分解为两个非负矩阵W和H的乘积。这里V是原始数据矩阵,W称为基矩阵,H称为系数矩阵。关键约束是所有矩阵的元素都必须非负,这使得分解结果具有很好的可解释性。
从几何角度理解非负矩阵分解,我们可以将原始数据看作二维空间中的向量。基矩阵W的列向量w1和w2构成了基向量。由于非负约束,所有数据点都必须位于这两个基向量张成的锥形区域内。每个数据点都可以表示为基向量的非负线性组合,组合系数就是H矩阵中对应的元素。
非负矩阵分解的核心是定义一个优化目标函数。我们要最小化原始矩阵V与重构矩阵WH之间的Frobenius范数的平方。Frobenius范数计算矩阵所有元素平方和的平方根。误差矩阵E等于V减去WH,我们的目标就是让这个误差尽可能小,同时保持W和H的所有元素都非负。
非负矩阵分解通常使用乘性更新规则算法求解。该算法交替更新W和H矩阵,每次更新都保证矩阵元素的非负性。算法从随机初始化开始,通过迭代逐步减小重构误差。当连续两次迭代的误差变化小于设定阈值时,算法收敛。这个过程展示了矩阵元素如何逐步优化,最终达到局部最优解。
在图像处理中,非负矩阵分解可以用于人脸识别和特征提取。将人脸图像矩阵分解后,基矩阵W的每一列代表一个局部特征,如眼部、鼻部、嘴部和面部轮廓。系数矩阵H则表示每个特征在重构原始图像时的权重。这种分解方式具有很好的可解释性,每个基向量都对应有意义的面部特征。