个性化阅读
专注于IT技术分析

Pytorch超参数调整技术(实例图解)

在最后一个主题中, 我们训练了Lenet模型和CIFAR数据集。我们发现我们的LeNet模型可以对大多数图像做出正确的预测, 同时我们也发现准确性过高。尽管我们的模型不是训练有素的, 但是它仍然能够预测大多数验证图像。

由于增加了深度多样性和训练图像的固有复杂性, CIFAR数据集将更加难以分类。

我们与MNIST数据集表现非常出色的LeNet模型现在在准确分类CIFAR数据集方面存在问题。

我们目前正在处理两个主要问题。准确性不够高, 网络似乎过度拟合了我们的训练数据。第一个问题可以通过对我们的LeNet模型代码进行各种修改来解决。我们将应用的修改非常取决于大小写, 并且对我们的模型容量进行了微调。它通常是一个非常特定的过程, 对于每个特定的深度学习任务都是唯一的。

但是, 模型的微调很重要, 可以显着改善模型性能。我们必须始终尝试修改模型, 以查看这些修改如何提高模型的有效性。我们将应用以下修改:

1)第一个修改将重点放在学习率上。 Adam优化器会计算个体的自适应学习率。指定合适的学习率以获得最佳性能仍然很重要。学习率太高通常会导致准确性降低。当涉及到更复杂的数据集时, 较低的学习率可以帮助神经网络更有效地学习。

注意:学习率太小会大大减慢我们的训练效果。

在分析和经验的帮助下, 我们得出结论, 训练过程相当缓慢, 并且从一个时期到下一个时期, 训练和验证的准确性没有得到明显提高。

我们将从0.001而不是0.0001设置学习率。

criteron=nn.CrossEntropyLoss()
optimizer=torch.optim.Adam(model.parameters(), lr=0.001)
Pytorch超参数调整技术
Pytorch超参数调整技术

2)第二种修改非常有效。我们将简单地添加更多的层卷积。通过添加更多的卷积, 我们的网络可以更有效地提取特征, 还可以提高准确性。

注意:定义卷积层的一种通用体系结构是其中每个层将前一层输出的深度加倍的层。

在我们的第一卷积层中, 将有3个输入通道, 而conv1的深度对应于16个输出通道。然后, 它将翻倍为32, 然后是64, 如下所示:

self.conv1=nn.Conv2d(3, 16, 5, 1)
self.conv2=nn.Conv2d(16, 32, 5, 1)

当我们从一个卷积层转到下一个卷积层时, -卷积层的输出深度一直在增加。这样, 我们内部增加了过滤器的数量, 以提取与转发输入有关的高度复杂的信息。卷积层用于使网络更深, 从而提取出越来越复杂的特征。

因此, 我们将另一个卷积层conv3设为:

self.conv3=nn.Conv2d(32, 64, 5, 1)

正在馈入我们的全连接层的适当矢量将是5乘5, 与以前相同, 但是输出通道的数量将是64。

self.fully1=nn.Linear(5*5*64, 500)

为了确保一致性, 我们还将在前向视图方法中将输出通道的数量更改为:

x=x.view(-1, 5*5*64)

在初始化第三卷积层之后, 我们将在其上应用relu函数:

x=func.relu(self.conv3(x))
x=func.max_pool2d(x, 2, 2)

更大的内核意味着更多的参数。我们将使用较小的内核大小来消除过度拟合。我们将使用三个内核大小, 这将适合我们的代码。先前在MNIST数据集中, 我们在卷积层中未使用任何填充, 但现在我们正在处理更复杂的数据集。通过包含填充以确保最大程度地提取特征来保留图像的边缘像素是有意义的。我们将所有卷积层的padding设置为1:

self.conv1=nn.Conv2d(3, 16, 3, 1, padding=1)
self.conv2=nn.Conv2d(16, 32, 3, 1, padding=1)
self.conv3=nn.Conv2d(32, 64, 3, 1, padding=1)

馈入全连接层的最终矢量由图像大小决定, 该图像大小将在每个最大池化层处减半。图像尺寸将减小为:

Pytorch超参数调整技术

因此, 我们将nn.Linear初始化方法更改为:

self.fully1=nn.Linear(4*4*64, 500)

同样, 我们将前向的view方法更改为:

x=x.view(-1, 4*4*64)

现在, 我们将对其进行培训, 它将为我们提供以下预期输出:

Pytorch超参数调整技术
Pytorch超参数调整技术

赞(0) 打赏
未经允许不得转载:srcmini » Pytorch超参数调整技术(实例图解)
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

 

觉得文章有用就打赏一下文章作者

微信扫一扫打赏