视频字幕
神经网络正向传播是深度学习的基础概念。在这个3乘3神经网络中,我们有三层:输入层接收数据,隐藏层进行特征提取,输出层产生最终结果。每个节点之间都有连接权重,数据从左到右流动,经过加权求和和激活函数处理。
正向传播的第一步是输入层接收数据。假设我们有一个输入向量X,包含三个数值:0.5、0.8和0.3。输入层的每个节点分别接收这些数值。节点1接收0.5,节点2接收0.8,节点3接收0.3。这些输入数据将作为整个神经网络计算的起点。
第二步是计算隐藏层的加权输入。我们使用公式Z1等于X乘以W1加上b1。输入向量X包含0.5、0.8、0.3三个值,与3乘3的权重矩阵W1相乘,然后加上偏置向量b1。每条连接线都有对应的权重值,隐藏层的每个节点都会接收所有输入节点的加权和,再加上各自的偏置值。
第三步是应用激活函数处理隐藏层的加权输入。激活函数的作用是引入非线性特性,使神经网络能够学习复杂的模式。常用的激活函数包括ReLU、Sigmoid和Tanh。这里我们使用ReLU函数,它的公式是f(x)等于x和0的最大值。经过ReLU处理后,负值变为0,正值保持不变,得到激活输出A1。
最后两步完成整个正向传播过程。第四步计算输出层的加权输入,将隐藏层输出A1与权重矩阵W2相乘并加上偏置b2。第五步对输出层应用激活函数得到最终结果Y。整个正向传播过程可以总结为:输入数据经过加权求和、激活函数处理,再次加权求和和激活,最终得到网络的预测输出。这就是神经网络最基本的计算流程。