pytorch中retain_graph==True的作用说明

 更新时间:2023年02月21日 08:45:56   作者:撒旦即可  
这篇文章主要介绍了pytorch中retain_graph==True的作用说明,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教

pytorch retain_graph==True的作用说明

总的来说进行一次backward之后,各个节点的值会清除,这样进行第二次backward会报错,如果加上retain_graph==True后,可以再来一次backward。 

retain_graph参数的作用

官方定义:

retain_graph (bool, optional) – If False, the graph used to compute the grad will be freed. Note that in nearly all cases setting this option to True is not needed and often can be worked around in a much more efficient way. Defaults to the value of create_graph.

大意是如果设置为False,计算图中的中间变量在计算完后就会被释放。

但是在平时的使用中这个参数默认都为False从而提高效率,和creat_graph的值一样。

具体看一个例子理解

假设一个我们有一个输入x,y = x **2, z = y*4,然后我们有两个输出,一个output_1 = z.mean(),另一个output_2 = z.sum()。

然后我们对两个output执行backward。

import torch
x = torch.randn((1,4),dtype=torch.float32,requires_grad=True)
y = x ** 2
z = y * 4
print(x)
print(y)
print(z)
loss1 = z.mean()
loss2 = z.sum()
print(loss1,loss2)
loss1.backward()    # 这个代码执行正常,但是执行完中间变量都free了,所以下一个出现了问题
print(loss1,loss2)
loss2.backward()    # 这时会引发错误

程序正常执行到第12行,所有的变量正常保存。

但是在第13行报错:

RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time.

分析:计算节点数值保存了,但是计算图x-y-z结构被释放了,而计算loss2的backward仍然试图利用x-y-z的结构,因此会报错。

因此需要retain_graph参数为True去保留中间参数从而两个loss的backward()不会相互影响。

正确的代码应当把第11行以及之后改成

  • 1 # 假如你需要执行两次backward,先执行第一个的backward,再执行第二个backward
  • 2 loss1.backward(retain_graph=True)# 这里参数表明保留backward后的中间参数。
  • 3 loss2.backward() # 执行完这个后,所有中间变量都会被释放,以便下一次的循环
  • 4  #如果是在训练网络optimizer.step() # 更新参数

create_graph参数比较简单,参考官方定义:

create_graph (bool, optional) – If True, graph of the derivative will be constructed, allowing to compute higher order derivative products. Defaults to False.

Pytorch retain_graph=True错误信息

(Pytorch:RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=True when calling backward the first time)

具有多个loss值

retain_graph设置True,一般多用于两次backward

# 假如有两个Loss,先执行第一个的backward,再执行第二个backward
loss1.backward(retain_graph=True) # 这样计算图就不会立即释放
loss2.backward() # 执行完这个后,所有中间变量都会被释放,以便下一次的循环
optimizer.step() # 更新参数

retain_graph设置True后一定要知道释放,否则显卡会占用越来越多,代码速度也会跑的越来越慢。

有的时候我明明仅有一个模型的也会出现这种错误

第一种是输入的原因。

// Example
x = torch.randn((100,1), requires_grad = True)
y = 1 + 2 * x + 0.3 * torch.randn(100,1)
x_train, y_train = x[:70], y[:70]
x_val, y_val = x[70:], y[70:]

for epoch in range(n_epochs):
    ...
    prediction = model(x_train)
    loss.backward()
    ...

在多次循环的过程中,input的梯度没有清除,而且我们也不需要计算输入的梯度,因此将x的require_grad设置为False就可以解决问题。

第二种是我在训练LSTM时候发现的。

class LSTMpred(nn.Module):
    def __init__(self, input_size, hidden_dim):
        self.hidden = self.init_hidden()
       ...
    def init_hidden(self):    #这里我们是需要个隐层参数的
        return (torch.zeros(1, 1, self.hidden_dim, requires_grad=True),
                torch.zeros(1, 1, self.hidden_dim, requires_grad=True))
    def forward(self, seq):
        ...

这里面的self.hidden我们在每一次训练的时候都要重新初始化隐层参数:

for epoch in range(Epoch):
    ...
    model.hidden = model.init_hidden()
    modout = model(seq)
    ...

3. 我的看法

其实,想想这几种情况都是一回事,都是网络在反向传播中不允许多个backward(),也就是梯度下降反馈的时候,有多个循环过程中共用了同一个需要计算梯度的变量,在前一个循环清除梯度后,后面一个循环过程就会在这个变量上栽跟头(个人想法)。

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • Python使用requirements.txt和pip打包批量安装的实现

    Python使用requirements.txt和pip打包批量安装的实现

    本文主要介绍了Python使用requirements.txt和pip打包批量安装的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-02-02
  • Python 语言实现六大查找算法

    Python 语言实现六大查找算法

    本文给大家分享Python 语言实现六大查找算法,针对每种算法通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧
    2021-06-06
  • Python Bytes压缩新手速成

    Python Bytes压缩新手速成

    掌握Python Bytes压缩的秘诀,让你的数据轻装上阵!本指南将带你一探Bytes压缩的奥秘,告别臃肿的数据,快来发现如何让你的代码和应用在性能高速公路上驰骋吧!
    2023-12-12
  • python中reversed与reverse的区别解析

    python中reversed与reverse的区别解析

    reverse()是python中列表的一个内置方法(在字典、字符串和元组中没有这个内置方法),用于列表中数据的反转,这篇文章主要介绍了python中reversed与reverse的区别,需要的朋友可以参考下
    2023-03-03
  • Python结合Sprak实现计算曲线与X轴上方的面积

    Python结合Sprak实现计算曲线与X轴上方的面积

    这篇文章主要介绍了Python结合Sprak实现计算曲线与X轴上方的面积,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习吧
    2023-02-02
  • python polars数据科学库对比Pandas优势分析

    python polars数据科学库对比Pandas优势分析

    这篇文章主要为大家介绍了python polars数据科学库对比Pandas优势分析,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2024-01-01
  • Python RuntimeError: thread.__init__() not called解决方法

    Python RuntimeError: thread.__init__() not called解决方法

    这篇文章主要介绍了Python RuntimeError: thread.__init__() not called解决方法,需要的朋友可以参考下
    2015-04-04
  • Python3 main函数使用sys.argv传入多个参数的实现

    Python3 main函数使用sys.argv传入多个参数的实现

    今天小编就为大家分享一篇Python3 main函数使用sys.argv传入多个参数的实现,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-12-12
  • python+webdriver自动化环境搭建步骤详解

    python+webdriver自动化环境搭建步骤详解

    在本篇文章里小编给大家分享了关于python+webdriver自动化环境搭建的详细步骤以及注意点,需要的朋友们参考下。
    2019-06-06
  • Python Flask框架实现小红书图片无水印解析下载

    Python Flask框架实现小红书图片无水印解析下载

    这篇文章主要为大家介绍了Python Flask框架实现小红书图片无水印解析下载,需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2023-11-11

最新评论