聊聊pytorch测试的时候为何要加上model.eval()

 更新时间:2021年05月22日 15:07:49   作者:qq_23304241  
这篇文章主要介绍了聊聊pytorch测试的时候为何要加上model.eval()的操作,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教

Do need to use model.eval() when I test?

Sure, Dropout works as a regularization for preventing overfitting during training.

It randomly zeros the elements of inputs in Dropout layer on forward call.

It should be disabled during testing since you may want to use full model (no element is masked)

使用PyTorch进行训练和测试时一定注意要把实例化的model指定train/eval,eval()时,框架会自动把BN和DropOut固定住,不会取平均,而是用训练好的值,不然的话,一旦test的batch_size过小,很容易就会被BN层导致生成图片颜色失真极大!!!!!!

补充:pytorch中model eval和torch no grad()的区别

model.eval()和with torch.no_grad()的区别

在PyTorch中进行validation时,会使用model.eval()切换到测试模式,在该模式下,

主要用于通知dropout层和batchnorm层在train和val模式间切换

在train模式下,dropout网络层会按照设定的参数p设置保留激活单元的概率(保留概率=p); batchnorm层会继续计算数据的mean和var等参数并更新。

在val模式下,dropout层会让所有的激活单元都通过,而batchnorm层会停止计算和更新mean和var,直接使用在训练阶段已经学出的mean和var值。

该模式不会影响各层的gradient计算行为,即gradient计算和存储与training模式一样,只是不进行反传(backprobagation)

而with torch.no_grad()则主要是用于停止autograd模块的工作,以起到加速和节省显存的作用,具体行为就是停止gradient计算,从而节省了GPU算力和显存,但是并不会影响dropout和batchnorm层的行为。

使用场景

如果不在意显存大小和计算时间的话,仅仅使用model.eval()已足够得到正确的validation的结果;而with torch.zero_grad()则是更进一步加速和节省gpu空间(因为不用计算和存储gradient),从而可以更快计算,也可以跑更大的batch来测试。

补充:Pytorch的modle.train,model.eval,with torch.no_grad的个人理解

1. 最近在学习pytorch过程中遇到了几个问题

不理解为什么在训练和测试函数中model.eval(),和model.train()的区别,经查阅后做如下整理

一般情况下,我们训练过程如下:

1、拿到数据后进行训练,在训练过程中,使用

model.train():告诉我们的网络,这个阶段是用来训练的,可以更新参数。

2、训练完成后进行预测,在预测过程中,使用

model.eval() : 告诉我们的网络,这个阶段是用来测试的,于是模型的参数在该阶段不进行更新。

2. 但是为什么在eval()阶段会使用with torch.no_grad()?

查阅相关资料:传送门

with torch.no_grad - disables tracking of gradients in autograd.

model.eval() changes the forward() behaviour of the module it is called upon

eg, it disables dropout and has batch norm use the entire population statistics

总结一下就是说,在eval阶段了,即使不更新,但是在模型中所使用的dropout或者batch norm也就失效了,直接都会进行预测,而使用no_grad则设置让梯度Autograd设置为False(因为在训练中我们默认是True),这样保证了反向过程为纯粹的测试,而不变参数。

另外,参考文档说这样避免每一个参数都要设置,解放了GPU底层的时间开销,在测试阶段统一梯度设置为False

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • Python BeautifulSoup4实现数据解析与提取

    Python BeautifulSoup4实现数据解析与提取

    Beautiful Soup是一个Python的库,用于解析HTML和XML文档,提供了方便的数据提取和操作功能,下面小编就来和大家详细聊聊如何利用BeautifulSoup4实现数据解析与提取吧
    2023-10-10
  • Pytorch中torchtext终极安装方法以及常见问题

    Pytorch中torchtext终极安装方法以及常见问题

    torchtext是pytorch框架中用于文本处理的,下面这篇文章主要给大家介绍了关于Pytorch中torchtext终极安装方法以及常见问题的相关资料,文中通过图文介绍的非常详细,需要的朋友可以参考下
    2023-05-05
  • 整理Python最基本的操作字典的方法

    整理Python最基本的操作字典的方法

    这篇文章主要介绍了整理Python最基本的操作字典的方法,是Python学习中最基础的内容,需要的朋友可以参考下
    2015-04-04
  • 浅谈keras中Dropout在预测过程中是否仍要起作用

    浅谈keras中Dropout在预测过程中是否仍要起作用

    这篇文章主要介绍了浅谈keras中Dropout在预测过程中是否仍要起作用,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-07-07
  • 实现Windows下设置定时任务来运行python脚本

    实现Windows下设置定时任务来运行python脚本

    这篇文章主要介绍了实现Windows下设置定时任务来运行python脚本的完整过程,有需要的朋友可以借鉴参考下,希望对广大读者朋友能够有所帮助
    2021-09-09
  • python  logging日志打印过程解析

    python logging日志打印过程解析

    这篇文章主要介绍了python logging日志打印过程解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-10-10
  • Python中的复制、浅拷贝与深拷贝解读

    Python中的复制、浅拷贝与深拷贝解读

    这篇文章主要介绍了Python中的复制、浅拷贝与深拷贝解读,对于可变对象,赋值是最简单省事的,如b=a,意思是直接使得a指向b代表的对象,两者id一样,指向同一个对象,一个修改,另一个也随之变化,需要的朋友可以参考下
    2023-11-11
  • Python切片操作深入详解

    Python切片操作深入详解

    这篇文章主要介绍了Python切片操作,结合实例形式详细深入的分析了Python切片操作的原理、参数属性、相关函数及操作注意事项,需要的朋友可以参考下
    2018-07-07
  • Python的subprocess模块总结

    Python的subprocess模块总结

    这篇文章主要介绍了Python的subprocess模块总结,本文详细讲解了subprocess模块参数及Popen方法,然后给出了多个使用实例,需要的朋友可以参考下
    2014-11-11
  • python list删除元素时要注意的坑点分享

    python list删除元素时要注意的坑点分享

    下面小编就为大家分享一篇python list删除元素时要注意的坑点分享,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-04-04

最新评论