个性化阅读
专注于IT技术分析

PyTorch线性回归用法图解

本文概述

线性回归是一种通过最小化距离来找到因变量和自变量之间的线性关系的方法。

线性回归是一种有监督的机器学习方法。该方法用于订单离散类别的分类。在本节中, 我们将了解如何建立一个模型, 用户可以通过该模型来预测因变量和自变量之间的关系。

简单来说, 我们可以说两个变量之间的关系, 即独立或因变量, 被称为线性关系。假设Y为因变量, X为自变量, 则这两个变量的线性回归关系为

Y = AX + b

  • A是斜率。
  • b是y截距。

初始状态

线性回归

最终状态

线性回归

对于创建或学习基本线性模型, 必须理解三个基本概念。

1.模型类

编写所有代码并在需要时编写所有函数是非常典型的, 这不是我们的动机。

编写数字优化库总比编写所有代码和函数总要好, 但是如果我们在预先编写的库之上构建它来完成任务, 则也可以提高商业价值。为此, 我们使用PyTorch的nn包的实现。为此, 我们首先要创建一个图层。

线性层使用

每个线性模块都会计算输入的输出, 并且对于权重和偏差, 它会保留其内部张量。

还有其他几个标准模块。我们将使用模型类格式, 它具有两个主要方法, 如下所示:

  1. 初始化:用于定义线性模块。
  2. 前瞻:借助前瞻方法, 在进行预测的基础上, 我们将训练线性回归模型

2.优化器

优化器是PyTorch中的重要概念之一。它用于优化我们的权重以使我们的模型适合数据集。有几种优化算法, 例如梯度下降和反向传播, 可以优化我们的权重值并最适合我们的模型。

通过torch.optim包可实现各种优化算法。要使用torch.optim, 必须构造一个优化器对象, 该对象将根据计算机的梯度更新参数并保持当前状态。对象创建如下:

Optimizer=optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
Optimizer=optim.Adam([var1, var2], lr=0.0001))

所有优化器均实现step()方法, 该方法将更新参数。有两种使用方式

1)Optimizer.step()

这是一种非常简单的方法, 并且得到许多优化程序的支持。在使用向后()方法计算梯度之后, 我们可以调用optimizer.step()函数。

例:

for input, target in dataset:
	optimizer.zero_grad()
	output=model(input)
	loss=loss_fn(output, target)
	loss.backward() 	
	optimizer.step()

2)Optimizer.step(关闭)

有一些优化算法(例如LBFGS), 并且”共轭梯度”需要多次重新评估函数, 因此我们必须将其传递给闭包以允许他们重新计算模型。

例:

for input, target in dataset:
def closure():
	optimizer.zero_grad()
	output = model(input)
	loss = loss_fn(output, target)
	loss.backward()
	return loss
	optimizer.step(closure)

标准

标准是我们的损失函数, 用于发现损失。此功能可从手电筒nn模块中使用。

例:

criterion = torch.nn.MSELoss(size_average = False)

所需的功能和对象

  1. 进口PyTorch
  2. 从torch.autagrad导入变量

我们需要定义一些数据, 并通过以下方式将它们分配给变量

xdata=Variable(torch.Tensor([[1.0], [2.0], [3.0]]))
ydata=Variable(torch.Tensor([[2.0], [4.0], [6.0]]))

以下是为我们提供训练完整回归模型的预测的代码。只是为了了解我们如何实现代码以及我们用来训练回归模型的功能。

import torch 
from torch.autograd import Variable 
xdata = Variable(torch.Tensor([[1.0], [2.0], [3.0]]))
ydata = Variable(torch.Tensor([[2.0], [4.0], [6.0]])) 
class LRM(torch.nn.Module):
	def __init__(self): 
		super(LRM, self).__init__()  
		self.linear = torch.nn.Linear(1, 1)
	def forward(self, x): 
		ypred = self.linear(x)  
		return ypred  
ourmodel = LRM()
criterion = torch.nn.MSELoss(size_average = False) 
optimizer = torch.optim.SGD(ourmodel.parameters(), lr = 0.01) 
for epoch in range(500): 
	predy = our_model(xdata) 
	loss = criterion(predy, ydata)  
	optimizer.zero_grad() 
	loss.backward() 	
	optimizer.step() 
	print('epoch {}, loss {}'.format(epoch, loss.item()))
newvar = Variable(torch.Tensor([[4.0]]))
predy = ourmodel(newvar)
print("predict (after training)", 4, our_model(newvar).data[0][0])

输出

epoch0, loss1.7771836519241333
epoch1, loss1.0423388481140137
epoch2, loss0.7115973830223083
epoch3, loss0.5608030557632446
.
.
.
.
epoch499, loss0.0003389564517419785
predict (after training) 4 tensor(7.9788)
线性回归

以下概念用于训练完整的回归模型

  1. 做出预测
  2. 线性类
  3. 定制模块
  4. 创建数据集
  5. 损失函数
  6. 梯度下降
  7. 均方误差
  8. 训练

以上所有要点对于理解如何训练回归模型都是必不可少的。


赞(0) 打赏
未经允许不得转载:srcmini » PyTorch线性回归用法图解
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

 

觉得文章有用就打赏一下文章作者

微信扫一扫打赏