Python Pytorch深度学习之神经网络

 更新时间:2021年10月28日 10:27:23   作者:柚子味的羊  
今天小编就为大家分享一篇关于Pytorch神经网络的文章,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧

一、简介

神经网络可以通过torch.nn包构建,上一节已经对自动梯度有些了解,神经网络是基于自动梯度来定义一些模型。一个nn.Module包括层和一个方法,它会返回输出。例如:数字图片识别的网络:

在这里插入图片描述

上图是一个简单的前回馈神经网络,它接收输入,让输入一个接着一个通过一些层,最后给出输出。

二、神经网络训练过程

一个典型的神经

# -*- coding: utf-8 -*-
"""
Created on Sun Oct 24 15:56:23 2021
@author: Lenovo
"""
# 神经网络
# import torch
import torch.nn as nn
import torch.nn.functional as F
class Net(nn.Module):
    def __init__(self):
        super(Net,self).__init__()
        # 1个输入,6个输出,5*5的卷积
        # 内核
        self.conv1=nn.Conv2d(1,6,5)
        self.conv2=nn.Conv2d(6,16,5)
        # 映射函数:线性——y=Wx+b
        self.fc1=nn.Linear(16*5*5,120)#输入特征值:16*5*5,输出特征值:120
        self.fc2=nn.Linear(120,84)
        self.fc3=nn.Linear(84,10)
    def forward(self,x):
        x=F.max_pool2d(F.relu(self.conv1(x)),(2,2))
        # 如果其尺寸是一个square只能指定一个数字
        x=F.max_pool2d(F.relu(self.conv2(x)),2)
        x=x.view(-1,self.num_flat_features(x))
        x=F.relu(self.fc1(x))
        x=F.relu(self.fc2(x))
        x=self.fc3(x)
        return x
    def num_flat_features(self,x):
        size=x.size()[1:]
        num_features=1
        for s in size:
            num_features *= s
        return num_features               
net=Net()
print(net)

运行结果

在这里插入图片描述

以上定义了一个前馈函数,然后反向传播函数被自动通过autograd定义,可以使用任何张量操作在前馈函数上。

2、通过调用net.parameters()返回模型可训练的参数

# 查看模型可训练的参数
params=list(net.parameters())
print(len(params))
print(params[0].size())# conv1 的权重weight

运行结果

在这里插入图片描述

3、迭代整个输入

尝试随机生成一个3232的输入。注:期望的输入维度是3232,为了在MNIST数据集上使用这个网络,我们需要把数据集中的图片维度修改为32*32

input=torch.randn(1, 1, 32,32)
print(input)
out=net(input)
print(out)

运行结果

在这里插入图片描述

4、调用反向传播

将所有参数梯度缓存器置零,用随机的梯度来反向传播

# 调用反向传播
net.zero_grad()
out.backward(torch.randn(1, 10))

运行结果

在这里插入图片描述

5、计算损失值

#计算损失值——损失函数:一个损失函数需要一对输入:模型输出和目标,然后计算一个值来评估输出距离目标多远。有一些不同的损失函数在nn包中,一个简单的损失函数就是nn.MSELoss,他计算了均方误差

如果跟随损失到反向传播路径,可以使用他的.grad_fn属性,将会看到一个计算图

在这里插入图片描述

# 在调用loss.backward()时候,整个图都会微分,而且所有的图中的requires_grad=True的张量将会让他们的grad张量累计梯度
#跟随以下步骤反向传播
print(loss.grad_fn)#MSELoss
print(loss.grad_fn.next_functions[0][0])#Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])#relu

运行结果

在这里插入图片描述

6、反向传播梯度

为了实现反向传播loss,我们所有需要做的事情仅仅是使用loss.backward()。需要先清空现存的梯度,不然梯度将会和现存的梯度累计在一起。

# 调用loss.backward()然后看一下con1的偏置项在反向传播之前和之后的变化
net.zero_grad()
print('conv1.bias.grad before backward')
print(net.conv1.bias.grad)
loss.backward()#反向传播
print('conv1.bias.grad after backward')
print(net.conv1.bias.grad)

运行结果

在这里插入图片描述

7、更新神经网络参数

# =============================================================================
# # 最简单的更新规则就是随机梯度下降:weight=weight-learning_rate*gradient
# learning_rate=0.01
# for f in net.parameters():
#     f.data.sub_(f.grad.data*learning_rate)#f.data=f.data-learning_rate*gradient
#  =============================================================================

如果使用的是神经网络,想要使用不同的更新规则,类似于SGD,Nesterov-SGD,Adam,RMSProp等。为了让这可行,Pytorch建立一个称为torch.optim的package实现所有的方法,使用起来更加方便

# =============================================================================
# import torch.optim as optim
# optimizer=optim.SGD(net.parameters(), lr=0.01)
# # 在迭代训练过程中
# optimizer.zero_grad()#将现存梯度置零
# output=net(input)
# loss=criterion(output,target)
# loss.backward()#反向传递
# optimizer.step()#更新网络参数
# =============================================================================

总结

本篇文章就到这里了,希望能够给你带来帮助,也希望您能够多多关注脚本之家的更多内容!

相关文章

  • 解决Jupyter Notebook “signal only works in main thread“问题

    解决Jupyter Notebook “signal only works&nb

    这篇文章主要介绍了解决Jupyter Notebook “signal only works in main thread“问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2023-09-09
  • python 命令行界面的用户交互及优化

    python 命令行界面的用户交互及优化

    这篇文章主要为大家介绍了python 命令行界面的用户交互及优化方法详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-11-11
  • CentOS下使用yum安装python-pip失败的完美解决方法

    CentOS下使用yum安装python-pip失败的完美解决方法

    这篇文章主要介绍了CentOS下使用yum安装python-pip失败的完美解决方法,需要的朋友可以参考下
    2017-08-08
  • Python如何使用type()函数查看数据的类型

    Python如何使用type()函数查看数据的类型

    这篇文章主要介绍了Python如何使用type()函数查看数据的类型,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2022-05-05
  • Python中使用sklearn进行特征降维的方法

    Python中使用sklearn进行特征降维的方法

    在Python中,可以使用sklearn库中的特征降维方法对数据进行处理。主要包括基于PCA算法的降维、基于LDA算法的降维、以及利用特征选择方法进行降维。这些方法可以提高模型的训练效率和预测准确率,特别是在高维数据集中具有重要的作用
    2023-04-04
  • Python使用进程Process模块管理资源

    Python使用进程Process模块管理资源

    这篇文章主要介绍了Python使用进程Process模块管理资源,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-03-03
  • python生成指定长度的随机数密码

    python生成指定长度的随机数密码

    这篇文章主要介绍了python生成指定长度的随机密码示例,密码使用数字和字母组合,大家参考使用吧
    2014-01-01
  • python中文字符如何转url编码

    python中文字符如何转url编码

    这篇文章主要介绍了python中文字符如何转url编码问题,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
    2023-02-02
  • Python脚本实现随机数据生成自由详解

    Python脚本实现随机数据生成自由详解

    这篇文章主要为大家详细介绍了Python如何通过脚本实现随机数据生成自由,文中的示例代码讲解详细,感兴趣的小伙伴快跟随小编一起学习一下吧
    2023-12-12
  • python深度总结线性回归

    python深度总结线性回归

    这篇文章主要介绍了python的深度总结之线性回归,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2021-09-09

最新评论