详解Pytorch显存动态分配规律探索

 更新时间:2020年11月17日 08:27:31   作者:华小电  
这篇文章主要介绍了Pytorch显存动态分配规律探索,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下

  下面通过实验来探索Pytorch分配显存的方式。

实验显存到主存

  我使用VSCode的jupyter来进行实验,首先只导入pytorch,代码如下:

import torch

  打开任务管理器查看主存与显存情况。情况分别如下:

  在显存中创建1GB的张量,赋值给a,代码如下:

a = torch.zeros([256,1024,1024],device= 'cpu')

  查看主存与显存情况:

  可以看到主存与显存都变大了,而且显存不止变大了1G,多出来的内存是pytorch运行所需的一些配置变量,我们这里忽略。

  再次在显存中创建一个1GB的张量,赋值给b,代码如下:

b = torch.zeros([256,1024,1024],device= 'cpu')

  查看主显存情况:

  这次主存大小没变,显存变高了1GB,这是合情合理的。然后我们将b移动到主存中,代码如下:

b = b.to('cpu') 

  查看主显存情况:

  发现主存是变高了1GB,显存却只变小了0.1GB,好像只是将显存张量复制到主存一样。实际上,pytorch的确是复制了一份张量到主存中,但它也对显存中这个张量的移动进行了记录。我们接着执行以下代码,再创建1GB的张量赋值给c:

c = torch.zeros([256,1024,1024],device= 'cuda')

  查看主显存情况:

  发现只有显存大小变大了0.1GB,这说明,Pytorch的确记录了显存中张量的移动,只是没有立即将显存空间释放,它选择在下一次创建新变量时覆盖这个位置。接下来,我们重复执行上面这行代码:

c = torch.zeros([256,1024,1024],device= 'cuda') 

  主显存情况如下:

  明明我们把张量c给覆盖了,显存内容却变大了,这是为什么呢?实际上,Pytorch在执行这句代码时,是首先找到可使用的显存位置,创建这1GB的张量,然后再赋值给c。但因为在新创建这个张量时,原本的c依然占有1GB的显存,pytorch只能先调取另外1GB显存来创建这个张量,再将这个张量赋值给c。这样一来,原本的那个c所在的显存内容就空出来了,但和前面说的一样,pytorch并不会立即释放这里的显存,而等待下一次的覆盖,所以显存大小并没有减小。

  我们再创建1GB的d张量,就可以验证上面的猜想,代码如下:

d = torch.zeros([256,1024,1024],device= 'cuda') 

  主显存情况如下:

  显存大小并没有变,就是因为pytorch将新的张量创建在了上一步c空出来的位置,然后再赋值给了d。另外,删除变量操作也同样不会立即释放显存:

del d

  主显存情况:

  显存没有变化,同样是等待下一次的覆盖。

主存到显存

  接着上面的实验,我们创建直接在主存创建1GB的张量并赋值给e,代码如下:

e = torch.zeros([256,1024,1024],device= 'cpu')

  主显存情况如下:

  主存变大1GB,合情合理。然后将e移动到显存,代码如下:

e = e.to('cuda')

  主显存情况如下:

  主存变小1GB,显存没变是因为上面张量d被删除没有被覆盖,合情合理。说明主存的释放是立即执行的。

总结

  通过上面的实验,我们了解到,pytorch不会立即释放显存中失效变量的内存,它会以覆盖的方式利用显存中的可用空间。另外,如果要重置显存中的某个规模较大的张量,最好先将它移动到主存中,或是直接删除,再创建新值,否则就需要两倍的内存来实现这个操作,就有可能出现显存不够用的情况。

  实验代码汇总如下:

#%% 
import torch
#%%
a = torch.zeros([256,1024,1024],device= 'cuda') 
#%%
b = torch.zeros([256,1024,1024],device= 'cuda') 
#%%
b = b.to('cpu')
#%%
c = torch.zeros([256,1024,1024],device= 'cuda') 
#%%
c = torch.zeros([256,1024,1024],device= 'cuda') 
#%% 
d = torch.zeros([256,1024,1024],device= 'cuda') 
#%%
del d 
#%% 
e = torch.zeros([256,1024,1024],device= 'cpu') 
#%%
e = e.to('cuda')

到此这篇关于Pytorch显存动态分配规律探索的文章就介绍到这了,更多相关Pytorc显存分配规律内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python dict 字典 以及 赋值 引用的一些实例(详解)

    python dict 字典 以及 赋值 引用的一些实例(详解)

    下面小编就为大家带来一篇python dict 字典 以及 赋值 引用的一些实例(详解)。小编觉得挺不错的,现在就分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2017-01-01
  • python中mechanize库的简单使用示例

    python中mechanize库的简单使用示例

    最近的项目中使用到了mechanize库,下面写个简单使用的小例子给大家参考
    2014-01-01
  • Python提取特定时间段内数据的方法实例

    Python提取特定时间段内数据的方法实例

    今天小编就为大家分享一篇关于Python提取特定时间段内数据的方法实例,小编觉得内容挺不错的,现在分享给大家,具有很好的参考价值,需要的朋友一起跟随小编来看看吧
    2019-04-04
  • Python爬虫获取基金净值信息详情

    Python爬虫获取基金净值信息详情

    这篇文章主要介绍了Python爬虫获取基金净值信息详情,文章基于钱两篇文章的内容围绕python的相关资料展开详细介绍,需要的小伙伴可以参考一下
    2022-05-05
  • 完美处理python与anaconda环境变量的冲突问题

    完美处理python与anaconda环境变量的冲突问题

    这篇文章主要介绍了完美处理Python与anaconda环境变量的冲突问题,对anaconda感兴趣的同学,可以参考下
    2021-04-04
  • 超详细讲解python正则表达式

    超详细讲解python正则表达式

    这篇文章主要介绍了python正则表达式,利用正则表达式实现文本的查找和替換功能会相对于比较简单,效率也会更高。感兴趣的小伙伴一起来学习学习吧
    2021-08-08
  • Python卷积神经网络图片分类框架详解分析

    Python卷积神经网络图片分类框架详解分析

    在机器视觉领域中,卷积神经网络算法作为一种新兴算法出现,在图像识别领域中,卷积神经网络能够较好的实现图像的分类效果,而且其位移和形变具有较高的容忍能力
    2021-11-11
  • ubuntu 安装pyqt5和卸载pyQt5的方法

    ubuntu 安装pyqt5和卸载pyQt5的方法

    这篇文章主要介绍了ubuntu 安装pyqt5和卸载pyQt5的方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-03-03
  • Python pandas之求和运算和非空值个数统计

    Python pandas之求和运算和非空值个数统计

    数据处理的过程中经常会遇到判断空值和求和运算的需求,所以下面这篇文章主要给大家介绍了关于Python pandas之求和运算和非空值个数统计的相关资料,需要的朋友可以参考下
    2021-08-08
  • 聊聊python 逻辑运算及奇怪的返回值(not,and,or)问题

    聊聊python 逻辑运算及奇怪的返回值(not,and,or)问题

    在Python中,真值为假的对象,包括False,None,数字0,空字符串以及空的容器类型,除此以外的任何对象均为真,本文重点给大家介绍python 逻辑运算及奇怪的返回值(not,and,or)问题,感兴趣的朋友一起看看吧
    2022-03-03

最新评论