个性化阅读
专注于IT技术分析

PyTorch中的梯度下降实例图解

我们最大的问题是, 我们如何训练模型来确定权重参数, 以最小化误差函数。让我们开始吧, 梯度下降如何帮助我们训练模型。

首先, 当我们使用线性函数初始化模型时, 线性模型将从随机初始参数调用开始。它确实给了我们一个随机的初始参数。

现在, 基于与该初始参数A相关的误差, 现在忽略偏差值。我们的动机是朝着使我们产生较小误差的方向运动。

如果我们采用误差函数的梯度作为切线在当前值处的切线的斜率的导数, 则该导数会将我们带向最大误差的方向。

Loss=(3+3A)2
f' (A)=18(A+1)

因此, 我们将其向梯度的负方向移动, 这会将我们带到最低误差的方向。我们以电流为权重, 然后在同一点减去该函数的导数。

A1=A0-f'(A)

这将使我们朝着最小错误的方向发展。

梯度下降

以总结的方式, 首先, 我们必须计算损失函数的导数, 然后提交线的当前权重值。无论权重是多少, 它们都会为你提供梯度值。然后从当前权重A0中减去该梯度值, 得出新的更新权重A1。新的权重应导致比先前的误差更小的误差。我们将反复进行此操作, 直到获得线模型的最佳参数以拟合数据为止。

但是, 为了确保最佳效果, 我们采用梯度下降。一个人应该以最少的步骤下降。这样, 我们将梯度乘以一个称为学习率的最小值。学习率的值是经验值。尽管一个好的标准起始值往往是10分之一或100分之一, 但是学习率必须足够小, 因为随着直线的调整, 你从不希望在一个方向上急剧移动, 因为这可能会导致不必要的发散行为。

在本文中, 我们将学习根据经验结果调整收益率, 稍后我们将编写梯度下降算法, 但下面将通过梯度下降示例进行介绍, 让我们参考一个关于excel的演示以可视化梯度下降的效果。

梯度下降

我们将在以后的代码中实现它。


赞(0) 打赏
未经允许不得转载:srcmini » PyTorch中的梯度下降实例图解
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

 

觉得文章有用就打赏一下文章作者

微信扫一扫打赏