Pytorch损失函数torch.nn.NLLLoss()的使用

 更新时间:2023年02月01日 09:35:27   作者:Jeremy_lf  
这篇文章主要介绍了Pytorch损失函数torch.nn.NLLLoss()的使用,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教

Pytorch损失函数torch.nn.NLLLoss()

在各种深度学习框架中,我们最常用的损失函数就是交叉熵(torch.nn.CrossEntropyLoss),熵是用来描述一个系统的混乱程度,通过交叉熵我们就能够确定预测数据与真是数据之间的相近程度。

交叉熵越小,表示数据越接近真实样本。

交叉熵计算公式

就是我们预测的概率的对数与标签的乘积,当qk->1的时候,它的损失接近零。

nn.NLLLoss

官方文档中介绍称:

nn.NLLLoss输入是一个对数概率向量和一个目标标签,它与nn.CrossEntropyLoss的关系可以描述为:softmax(x)+log(x)+nn.NLLLoss====>nn.CrossEntropyLoss

CrossEntropyLoss()=log_softmax() + NLLLoss() 

其中softmax函数又称为归一化指数函数,它可以把一个多维向量压缩在(0,1)之间,并且它们的和为1.

计算公式

1 

示例代码:

import math
z = [1.0, 2.0, 3.0, 4.0, 1.0, 2.0, 3.0]
z_exp = [math.exp(i) for i in z]  
print(z_exp)  # Result: [2.72, 7.39, 20.09, 54.6, 2.72, 7.39, 20.09] 
sum_z_exp = sum(z_exp)  
print(sum_z_exp)  # Result: 114.98 
softmax = [round(i / sum_z_exp, 3) for i in z_exp]
print(softmax)  # Result: [0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]

log_softmax

log_softmax是指在softmax函数的基础上,再进行一次log运算,此时结果有正有负,log函数的值域是负无穷到正无穷,当x在0—1之间的时候,log(x)值在负无穷到0之间。

nn.NLLLoss

此时,nn.NLLLoss的结果就是把上面的输出与Label对应的那个值拿出来,再去掉负号,再求均值。

代码示例:

import torch
input=torch.randn(3,3)
soft_input = torch.nn.Softmax(dim=0)
soft_input(input)
Out[20]: 
tensor([[0.7284, 0.7364, 0.3343],
        [0.1565, 0.0365, 0.0408],
        [0.1150, 0.2270, 0.6250]])

#对softmax结果取log
torch.log(soft_input(input))
Out[21]: 
tensor([[-0.3168, -0.3059, -1.0958],
        [-1.8546, -3.3093, -3.1995],
        [-2.1625, -1.4827, -0.4701]])

假设标签是[0,1,2],第一行取第0个元素,第二行取第1个,第三行取第2个,去掉负号,即[0.3168,3.3093,0.4701],求平均值,就可以得到损失值。

(0.3168+3.3093+0.4701)/3
Out[22]: 1.3654000000000002

#验证一下

loss=torch.nn.NLLLoss()
target=torch.tensor([0,1,2])
loss(input,target)
Out[26]: tensor(0.1365)

nn.CrossEntropyLoss

loss=torch.nn.NLLLoss()
target=torch.tensor([0,1,2])
loss(input,target)
Out[26]: tensor(-0.1399)
loss =torch.nn.CrossEntropyLoss()
input = torch.tensor([[ 1.1879,  1.0780,  0.5312],
        [-0.3499, -1.9253, -1.5725],
        [-0.6578, -0.0987,  1.1570]])
target = torch.tensor([0,1,2])
loss(input,target)
Out[30]: tensor(0.1365)

以上为全部实验验证两个loss函数之间的关系!!!

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • Python实现仿射密码的思路详解

    Python实现仿射密码的思路详解

    这篇文章主要介绍了Python实现仿射密码的思路详解,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
    2020-04-04
  • Python自动化测试selenium指定截图文件名方法

    Python自动化测试selenium指定截图文件名方法

    这篇文章主要介绍了Python自动化测试selenium指定截图文件名方法,Selenium 支持 Web 浏览器的自动化,它提供一套测试函数,用于支持 Web 自动化测试,下文基于python实现指定截图文件名方法,需要的小伙伴可以参考一下
    2022-05-05
  • centos安装python3.10的教程

    centos安装python3.10的教程

    文章主要介绍了在CentOS系统上安装Python 3.10.1的步骤,包括升级OpenSSL到1.1.1,以及详细的操作过程,如切换目录、下载安装包、解压、配置、编译安装、创建软连接和验证等
    2025-03-03
  • python redis存入字典序列化存储教程

    python redis存入字典序列化存储教程

    这篇文章主要介绍了python redis存入字典序列化存储教程,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-07-07
  • 降低python版本的操作方法

    降低python版本的操作方法

    在本篇内容里小编给大家整理的是一篇关于降低python版本的操作方法,需要的朋友们可以学习参考下。
    2020-09-09
  • Python实现多个视频合成一个视频的功能

    Python实现多个视频合成一个视频的功能

    这篇文章主要介绍了可以将多个视频拼接为一个视频的Python工具代码,文中的代码讲解详细,对我们学习Python有一定的帮助,快来跟随小编一起学习一下吧
    2021-12-12
  • Pytorch计算网络参数的两种方法

    Pytorch计算网络参数的两种方法

    PyTorch是一个流行的深度学习框架,它允许研究人员和开发者快速构建和训练神经网络,计算一个PyTorch网络的参数量通常涉及两个步骤,本文给大家介绍了在PyTorch中计算网络参数量的一般方法,需要的朋友可以参考下
    2024-05-05
  • flask框架url与重定向操作实例详解

    flask框架url与重定向操作实例详解

    这篇文章主要介绍了flask框架url与重定向操作,结合实例形式详细分析了flask框架URL映射、传参、重定向等相关概念、原理与操作注意事项,需要的朋友可以参考下
    2020-01-01
  • python sqlite的Row对象操作示例

    python sqlite的Row对象操作示例

    这篇文章主要介绍了python sqlite的Row对象操作,结合实例形式分析了Python使用sqlite的Row对象进行数据的查询操作相关实现技巧,需要的朋友可以参考下
    2019-09-09
  • tensorflow: 查看 tensor详细数值方法

    tensorflow: 查看 tensor详细数值方法

    今天小编就为大家分享一篇tensorflow: 查看 tensor详细数值方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-06-06

最新评论