Adam优化器公式PPT
Adam优化器是一种常用的深度学习优化器,它结合了Momentum和RMSprop的思想,可以自适应地调整学习率。以下是Adam优化器的公式:参数更新规则...
Adam优化器是一种常用的深度学习优化器,它结合了Momentum和RMSprop的思想,可以自适应地调整学习率。以下是Adam优化器的公式:参数更新规则参数更新规则β1 = 0.9β2 = 0.999ϵ = 10^-8m = β1 * m + (1 - β1) * gv = β2 * v + (1 - β2) * g^2θ = θ - ϵ * m / (sqrt(v) + ϵ)其中,m 是一阶矩(mean),v 是二阶矩(uncentered variance),g 是梯度,θ 是参数。β1 和 β2 是超参数,控制矩估计的权重衰减。ϵ 是一个很小的常数,用来防止除以零的错误。2. 计算一阶矩和二阶矩一阶矩和二阶矩的计算m = β1 * m + (1 - β1) * gv = β2 * v + (1 - β2) * g^2这两个公式用于计算一阶矩和二阶矩。β1 和 β2 是超参数,控制矩估计的权重衰减。g 是梯度。初始的一阶矩和二阶矩通常设为0。3. 更新参数参数更新θ = θ - ϵ * m / (sqrt(v) + ϵ)这个公式用于更新参数。ϵ 是一个很小的常数,用来防止除以零的错误。m 是一阶矩(mean),v 是二阶矩(uncentered variance)。4. 偏置修正在原始的Adam算法中,并没有对一阶矩和二阶矩进行偏置修正。然而,在实践中,往往需要对一阶矩和二阶矩进行偏置修正。修正后的公式如下:一阶矩和二阶矩的偏置修正计算m_hat = m / (1 - β1^t)v_hat = v / (1 - β2^t) + ϵ其中,t 是当前的训练步数。偏置修正可以帮助Adam在早期的训练步骤中更好地收敛。5. 参数更新(包含偏置修正)使用偏置修正后,参数更新公式如下:参数更新(包含偏置修正)θ = θ - ϵ * m_hat / (sqrt(v_hat) + ϵ)使用偏置修正后,可以帮助Adam在早期的训练步骤中更好地收敛。以上就是Adam优化器的公式及其解释。需要注意的是,在实际使用中,通常会将上述公式实现为循环的形式,以便于在训练过程中迭代更新参数。