date: 2024-04-06
title: Back Propagation
status: DONE
author:
- AllenYGY
tags:
- DeepLearning
- BackPropagation
- NOTE
created: 2024-04-06T16:21
updated: 2024-04-06T16:24
publish: True
Back Propagation
Computing Gradients
要更新神经网络中某一层的梯度,我们需要基于反向传播(Backpropagation)算法的步骤。这是深度学习中训练神经网络的核心步骤,它可以分为几个主要步骤:前向传播、计算损失、反向传播计算梯度、更新权重。假设我们已经完成了前向传播并计算了损失,现在我们要更新某一层的梯度。以下是详细的步骤:
假设你有一个输入
在反向传播中,我们从输出层开始逐层计算梯度,直到到达目标层。这一步的关键是利用链式法则计算每层参数对损失
假设我们有一个中间层
首先,我们需要计算损失对这一层输出
接下来,我们要计算损失对
如果
所以,最终我们得到:
其中
一旦得到了梯度
反向传播和权重更新的过程会对每一层重复进行,直到所有层的权重都更新完毕。这一轮的梯度计算和更新完成后,模型的权重就得到了调整。然后,我们继续下一轮训练(即下一批数据),重复上述的前向传播、反向传播和更新步骤。
假设你要更新某个中间层
更新某一层的梯度的关键步骤包括:
以上就是更新某一层梯度的完整步骤。如果你还有不理解的地方,或者想了解更具体的计算例子,请告诉我!