PyTorch中torch.utils.data.DataLoader简单介绍与使用方法

 更新时间:2022年06月22日 11:10:09   作者:想变厉害的大白菜  
DataLoader是PyTorch中读取数据的一个重要接口,基本上用PyTorch训练模型都会用到,下面这篇文章主要给大家介绍了关于PyTorch中torch.utils.data.DataLoader简单介绍与使用方法的相关资料,需要的朋友可以参考下

一、torch.utils.data.DataLoader 简介

作用:torch.utils.data.DataLoader 主要是对数据进行 batch 的划分。

数据加载器,结合了数据集和取样器,并且可以提供多个线程处理数据集。

在训练模型时使用到此函数,用来 把训练数据分成多个小组 ,此函数 每次抛出一组数据 。直至把所有的数据都抛出。就是做一个数据的初始化。

好处:

使用DataLoader的好处是,可以快速的迭代数据。

用于生成迭代数据非常方便。

注意:

除此之外,特别要注意的是输入进函数的数据一定得是可迭代的。如果是自定的数据集的话可以在定义类中用def__len__、def__getitem__定义。

二、实例

BATCH_SIZE 刚好整除数据量

"""
    批训练,把数据变成一小批一小批数据进行训练。
    DataLoader就是用来包装所使用的数据,每次抛出一批数据
"""
import torch
import torch.utils.data as Data

BATCH_SIZE = 5       # 批训练的数据个数

x = torch.linspace(1, 10, 10)   # 训练数据
print(x)
y = torch.linspace(10, 1, 10)   # 标签
print(y)
# 把数据放在数据库中
torch_dataset = Data.TensorDataset(x, y)  # 对给定的 tensor 数据,将他们包装成 dataset

loader = Data.DataLoader(
    # 从数据库中每次抽出batch size个样本
    dataset=torch_dataset,       # torch TensorDataset format
    batch_size=BATCH_SIZE,       # mini batch size
    shuffle=True,                # 要不要打乱数据 (打乱比较好)
    num_workers=2,               # 多线程来读数据
)

def show_batch():
    for epoch in range(3):
        for step, (batch_x, batch_y) in enumerate(loader):
            # training
            print("steop:{}, batch_x:{}, batch_y:{}".format(step, batch_x, batch_y))

show_batch()

输出结果:

tensor([ 1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.])
tensor([10.,  9.,  8.,  7.,  6.,  5.,  4.,  3.,  2.,  1.])
steop:0, batch_x:tensor([10.,  1.,  3.,  7.,  6.]), batch_y:tensor([ 1., 10.,  8.,  4.,  5.])
steop:1, batch_x:tensor([8., 5., 4., 9., 2.]), batch_y:tensor([3., 6., 7., 2., 9.])
steop:0, batch_x:tensor([ 9.,  3., 10.,  1.,  5.]), batch_y:tensor([ 2.,  8.,  1., 10.,  6.])
steop:1, batch_x:tensor([2., 6., 8., 4., 7.]), batch_y:tensor([9., 5., 3., 7., 4.])
steop:0, batch_x:tensor([ 2., 10.,  9.,  6.,  1.]), batch_y:tensor([ 9.,  1.,  2.,  5., 10.])
steop:1, batch_x:tensor([8., 3., 4., 7., 5.]), batch_y:tensor([3., 8., 7., 4., 6.])

说明:共有 10 条数据,设置 BATCH_SIZE 为 5 来进行划分,能划分为 2 组(steop 为 0 和 1)。这两组数据互斥。

BATCH_SIZE 不整除数据量:会输出余下所有数据

将上述代码中的 BATCH_SIZE 改为 4 :

"""
    批训练,把数据变成一小批一小批数据进行训练。
    DataLoader就是用来包装所使用的数据,每次抛出一批数据
"""
import torch
import torch.utils.data as Data

BATCH_SIZE = 4       # 批训练的数据个数

x = torch.linspace(1, 10, 10)   # 训练数据
print(x)
y = torch.linspace(10, 1, 10)   # 标签
print(y)
# 把数据放在数据库中
torch_dataset = Data.TensorDataset(x, y)  # 对给定的 tensor 数据,将他们包装成 dataset

loader = Data.DataLoader(
    # 从数据库中每次抽出batch size个样本
    dataset=torch_dataset,       # torch TensorDataset format
    batch_size=BATCH_SIZE,       # mini batch size
    shuffle=True,                # 要不要打乱数据 (打乱比较好)
    num_workers=2,               # 多线程来读数据
)

def show_batch():
    for epoch in range(3):
        for step, (batch_x, batch_y) in enumerate(loader):
            # training
            print("steop:{}, batch_x:{}, batch_y:{}".format(step, batch_x, batch_y))

show_batch()

输出结果:

tensor([ 1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.])
tensor([10.,  9.,  8.,  7.,  6.,  5.,  4.,  3.,  2.,  1.])
steop:0, batch_x:tensor([1., 5., 3., 2.]), batch_y:tensor([10.,  6.,  8.,  9.])
steop:1, batch_x:tensor([7., 8., 4., 6.]), batch_y:tensor([4., 3., 7., 5.])
steop:2, batch_x:tensor([10.,  9.]), batch_y:tensor([1., 2.])
steop:0, batch_x:tensor([ 7., 10.,  5.,  2.]), batch_y:tensor([4., 1., 6., 9.])
steop:1, batch_x:tensor([9., 1., 6., 4.]), batch_y:tensor([ 2., 10.,  5.,  7.])
steop:2, batch_x:tensor([8., 3.]), batch_y:tensor([3., 8.])
steop:0, batch_x:tensor([10.,  3.,  2.,  8.]), batch_y:tensor([1., 8., 9., 3.])
steop:1, batch_x:tensor([1., 7., 5., 9.]), batch_y:tensor([10.,  4.,  6.,  2.])
steop:2, batch_x:tensor([4., 6.]), batch_y:tensor([7., 5.])

说明:共有 10 条数据,设置 BATCH_SIZE 为 4 来进行划分,能划分为 3 组(steop 为 0 、1、2)。分别有 4、4、2 条数据。

参考链接

  1. torch.utils.data.DataLoader使用方法
  2. 【Pytorch基础】torch.utils.data.DataLoader方法的使用

总结

到此这篇关于PyTorch中torch.utils.data.DataLoader简单介绍与使用方法的文章就介绍到这了,更多相关PyTorch中torch.utils.data.DataLoader内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • 一文带你搞懂Numpy中的深拷贝和浅拷贝

    一文带你搞懂Numpy中的深拷贝和浅拷贝

    深拷贝和浅拷贝是Python中重要的概念,本文将重点介绍在NumPy中深拷贝和浅拷贝相关操作的定义和背后的原理,快跟随小编一起来学习一下吧
    2022-04-04
  • Python使用Pandas和Matplotlib按中值对箱形图进行排序

    Python使用Pandas和Matplotlib按中值对箱形图进行排序

    箱形图是可视化数据分布的强大工具,因为它们提供了对数据集内的散布、四分位数和离群值的洞察,在本文中,我们将探索如何在Python中使用Pandas和Matplotlib按中值对箱形图进行排序,需要的朋友可以参考下
    2025-04-04
  • pyqt5 使用cv2 显示图片,摄像头的实例

    pyqt5 使用cv2 显示图片,摄像头的实例

    今天小编就为大家分享一篇pyqt5 使用cv2 显示图片,摄像头的实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-06-06
  • python实现的简单RPG游戏流程实例

    python实现的简单RPG游戏流程实例

    这篇文章主要介绍了python实现的简单RPG游戏流程,实例分析了Python实现RPG游戏流程的常用判定技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2015-06-06
  • python 中的@property的用法详解

    python 中的@property的用法详解

    这篇文章主要介绍了python @property的用法,简单地说就是一个类里面的方法一旦被@property装饰,就可以像调用属性一样地去调用这个方法,它能够简化调用者获取数据的流程,感兴趣的朋友跟随小编一起看看吧
    2022-06-06
  • 如何通过Python实现标签云算法

    如何通过Python实现标签云算法

    这篇文章主要介绍了如何通过Python实现标签云算法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-07-07
  • Python Pytorch深度学习之Tensors张量

    Python Pytorch深度学习之Tensors张量

    今天小编就为大家分享一篇Pytorch之Tensors张量的文章,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2021-10-10
  • Python发送Email方法实例

    Python发送Email方法实例

    这篇文章主要介绍了Python发送Email的方法,有不错的实用价值,代码备有一定的注释便于读者理解,需要的朋友可以参考下
    2014-08-08
  • python爬取拉勾网职位数据的方法

    python爬取拉勾网职位数据的方法

    这篇文章主要介绍了python爬取拉勾网职位数据的实现方法,非常不错,具有参考借鉴价值,需要的朋友可以参考下
    2018-01-01
  • Python多线程threading创建及使用方法解析

    Python多线程threading创建及使用方法解析

    这篇文章主要介绍了Python多线程threading创建及使用方法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-06-06

最新评论