Pytorch:dtype不一致问题(expected dtype Double but got dtype Float)

 更新时间:2023年02月21日 09:24:32   作者:Serendipity0928  
这篇文章主要介绍了Pytorch:dtype不一致问题(expected dtype Double but got dtype Float),具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教

Pytorch:dtype不一致

RuntimeError: Expected object of scalar type Double but got scalar type Float for argument #3 ‘mat2’ in call to _th_addmm_out

1. 说明

在训练网络的过程中由于类型的冲突导致这种错误,主要是模型内部参数和输入类型不一致所导致的。主要有两个部分需要注意到:1.自己定义的变量要设置为一种数据类型;2.网络内部的变量类型也要统一。

2. 解决办法一

统一声明变量的类型。

# 将接下来创建的变量类型均为Double
torch.set_default_tensor_type(torch.DoubleTensor)

or

#将接下来创建的变量类型均为Float
torch.set_default_tensor_type(torch.FloatTensor)

一定要注意要在变量创建之间声明类型。

3. 解决办法二

在训练过程中加入一下两点即可:

# For your model
net = net.double()
# For your data
net(input_x.double)

Pytorch:盲点

1. 用conda安装pytorch-gpu时

用这个命令就够了,网上其他人说的都不好使

conda install pytorch cuda92

注意得是清华源的

2. 比较两个行向量或者列向量

以期求得布尔数组时,必须要保证两边的数据类型一样,并且返回的布尔数组类型和比较的两个向量结构保持一致。另外,所有torch.返回的东西,如果要取得里面的值,必须要加.item()

# !user/bin/python
# -*- coding: UTF-8 -*-
 
import torch
 
a = torch.arange(16).view(4, 4)
b = torch.argmax(a, dim = 1)
print([round(x.item(), 5) for x in b])
 
z = torch.tensor([3, 1, 2, 5], dtype = torch.long) # 类型必须保持一致
z = z.view(-1, 1)
b = b.view(-1, 1)
print(b)
print(z)
print(b == z)
# tensor([[ True],
#         [False],
#         [False],
#         [False]])
print(torch.sum(b == z)) # tensor(1)

3. numpy转tensor,其中,ndarray必须是等长的

x = np.array([[1, 2, 3], [4, 5, 6]]) # 正确
# x = np.array([[1, 2, 3], [4, 5]]) # 错误
print(torch.from_numpy(x))

4. unsqueeze (不改变原有数据)

import torch
import numpy as np
 
x = torch.tensor([[1, 2], [3, 4]])
print(x)
# tensor([[1, 2],
#         [3, 4]])
 
# 在第0维的地方插入一维
print(x.unsqueeze(0))
# tensor([[[1, 2],
#          [3, 4]]])
print(x.unsqueeze(0).shape) # torch.Size([1, 2, 2])
print(x.unsqueeze(1))
# tensor([[[1, 2]],
 
#         [[3, 4]]])
print(x.unsqueeze(1).shape) # torch.Size([2, 1, 2])

5. nn.embedding

# !user/bin/python
# -*- coding: UTF-8 -*-
 
import torch
import torch.nn as nn
import torch.nn.functional as F
 
# 看看torch中的torch.nn.embedding
# embedding接收两个参数
# 第一个是num_embeddings,它表示词库的大小,则所有词的下标从0 ~ num_embeddings-1
# 第二个是embedding_dim,表示词嵌入维度
# 词嵌入层有了上面这两个必须有的参数,就形成了类,这个类可以有输入和输出
# 输入的数据结构不限,但是数据结构里面每个单元的元素必须指的是下标,即要对应0 ~ num_embeddings-1
# 输出的数据结构和输入一样,只不过将下标换成对应的词嵌入
# 最开始的时候词嵌入的矩阵是随机初始化的,但是作为嵌入层,会不断的学习参数,所以最后训练完成的参数一定是学习完成的
# embedding层还可以接受一个可选参数padding_idx,这个参数指定的维度,但凡输入的时候有这个维度,输出一律填0
 
# 下面来看一下吧
embedding = nn.Embedding(10, 3)
inputs = torch.tensor([[1, 2, 4, 5],
                       [4, 3, 2, 9]])
print(embedding(inputs))
 
# tensor([[[ 0.3721,  0.3502,  0.8029],
#          [-0.2410,  0.0723, -0.6451],
#          [-0.4488,  1.4382,  0.1060],
#          [-0.1430, -0.8969,  0.7086]],
#
#         [[-0.4488,  1.4382,  0.1060],
#          [ 1.3503, -0.0711,  1.5412],
#          [-0.2410,  0.0723, -0.6451],
#          [-0.3360, -0.7692,  2.2596]]], grad_fn=<EmbeddingBackward>)

6. eq

# !user/bin/python
# -*- coding: UTF-8 -*-
 
 
# eq
import torch
a = torch.tensor([1, 2, 2, 3])
b = torch.tensor((1, 3, 2, 3))
print(a.eq(b)) # tensor([ True, False,  True,  True])
print(a.eq(0)) # tensor([False, False, False, False])
print(a.eq(2)) # tensor([False,  True,  True, False])

7. expand

# expand
# expand不修改原有值
# 只能扩展维度是1的那个维度
# 另外,expand还能增加新的维度,不过新的维度必须在已知维度之前比如从2 * 3 到 5 * 2 * 3
a = torch.tensor([[1, 2, 3]])
print(a.size()) # torch.Size([1, 3]),第一维是1,所以只能扩展第一维
print(a.expand(3, 3))
# tensor([[1, 2, 3],
#         [1, 2, 3],
#         [1, 2, 3]])
print(a) # tensor([[1, 2, 3]])
 
a = torch.tensor([[1], [2], [3]])
print(a.size()) # torch.Size([3, 1]),第二维是1,只能扩展第二维
print(a.expand(-1, 4)) # 第一维用-1代表第一维不变,还是3
# tensor([[1, 1, 1, 1],
#         [2, 2, 2, 2],
#         [3, 3, 3, 3]])
 
a = torch.randn(2, 1, 1, 4) # 同理,只能扩展第2和第3维
print(a.expand(-1, 2, 3, -1))
 
a = torch.tensor([1, 2, 3])
print(a.size()) # torch.Size([3])
print(a.expand(2, 3))
# tensor([[1, 2, 3],
#         [1, 2, 3]])
# print(a.expand(3, 2)) 会报错,因为新维度跑到原有维度之后了
print(a.expand(3, 2, -1))
 
a = torch.rand(2, 3)
print(a.expand(5, 2, 3)) # 正确

8. repeat

# repeat
# repeat不改变原有值
# repeat传入的参数的个数等于原有值的维度个数,表示将对应维度的内容重复多少次
 
a = torch.tensor([1, 2, 3]) # size = [3]
print(a.repeat(2)) # 将第一个维度的重复两次 tensor([1, 2, 3, 1, 2, 3])
print(a) # tensor([1, 2, 3])
 
a = torch.tensor([[1, 2, 3], [4, 5, 6]]) # 2 * 3
print(a.repeat(2, 3)) # 第一维重复两次,第二维重复三次,就变成了4 * 9
# tensor([[1, 2, 3, 1, 2, 3, 1, 2, 3],
#         [4, 5, 6, 4, 5, 6, 4, 5, 6],
#         [1, 2, 3, 1, 2, 3, 1, 2, 3],
#         [4, 5, 6, 4, 5, 6, 4, 5, 6]])

9. torch.stack 这个函数接受一个由张量组成的元组或者列表

与cat的区别是,stack会先增加一维,然后再进行拼接

10. 对于一维张量a,维度为m,a[None, :]的shape为1×m,a[:, None]的shape为m×1

11. 两个不同维度的矩阵比较,利用了广播机制

12. torch.nn.CrossEntropyLoss(),这个类比较复杂,我们慢点说。

首先,这是一个类,定义如下:

class CrossEntropyLoss(_WeightedLoss):
    def __init__(self, weight=None, size_average=None, ignore_index=-100,
                 reduce=None, reduction='mean'):
        super(CrossEntropyLoss, self).__init__(weight, size_average, reduce, reduction)
        self.ignore_index = ignore_index
 
    def forward(self, input, target):
        return F.cross_entropy(input, target, weight=self.weight,
                               ignore_index=self.ignore_index, reduction=self.reduction)

可以看到这个类非常简单。在构造函数中,我们重点关注weight和reduction

  • weight:表示每个类的权重,这个在样本不平衡分类问题中很有用,它应该是一个长度为C的一维张量,C为类别数。
  • reduction:用于控制最终的输出结果,默认为mean,如果是mean,返回的是一个数,即shape为torch.tensor([]) ,如果是none,则返回的情况有两种,一种是(N,),一种是(N, d_1, ..., d_K),至于是哪一种,得看我们输入到forward函数中的input和target是哪种形状的。

可以看到,forward函数直接调用F.cross_entropy这个函数,这个函数中的weight和reduction我们已经讲过,不再赘述。我们重点将input和target应该是什么形状的。

这里分两种情况。

第一种,input是二维,即(N, C),N代表batch_size,C代表类别,即对于每一个batch,都有一个一维长度为C的向量,通常这里的C表示的是对应类别的得分。target表示标签,它应该是(N,),表示每一个batch的正确标签是什么,内容应该在0~C-1之中。如果reduction取默认值mean,则返回的是一个数,这个数是每个batch的损失的平均。如果是none,则返回的是(N,),即代表每一个batch的损失,没有进行平均。

第二种,input的维度是(N, C, d_1, ... d_K),这里K>=1。N表示batch_size,C表示类别数,d_1...d_K 可以看做一个整体,表示在某个批次,某个类别上,损失并不是一个数字,而是一个张量。按这种方式理解的话,第一种就可以理解为,在某个批次,某个类别上,损失是一个数,而第二种不是一个数,是一个张量,这个张量的形状是(d_1, ..., d_K),这个张量的每一个位置都代表对应位置的损失。拿NLP中seq2seq的损失函数为例,decoder的输出应是(batch_size, seq_len, vocab_size),label为(batch_size, seq_len),那么这里我们显然应该用第二种,因为在某个批次,某个类别上,我们的损失函数并不单单是一个数,而是一个(seq_len,)的张量,对于长度为seq_len的每个单词,每个位置都有一个损失,所以我们要用第二种。所以这里,我们需要将input的后两维置换,即transpose(0, 1),使其变成(batch_size, vocab_size, seq_len)。对于第二种,target,也就是label的维度应该是(N, d1, ..., d_K),表示对于每个批次,这个“损失张量”(这个名字我自己起的)的每个位置对应的标签。因此,对于seq2seq来说,label的维度应该是(N, seq_len)。对于第二种情况,如果reduction是mean,输出还是一个数,这个数表示所有批次,“损失张量”所有位置的损失的平均值。如果是none,输出为(N, d1, ...d_K),表示每一个批次,“损失张量”每一个位置的损失。

下面的例子代表第一种情况。

13. torch中mask作为torch的下标,可以不必和torch一样的shape

当然,也可以直接用下表来进行赋值

14. repeat in torch & numpy is very different.

look at the pic above, repeat in torch does not have a argument 'axis =', and it regard the whole tensor as one which can not be seperated.

Next, we will talk about repeat function in numpy. We would like to divide it into two part. The former is that the array is 1-D and the other is N-D

  • part 1:

if array is one-dimensional, there is no need to specify the 'axis' argument. It will seperate each number, and repeat them respectively.

  • part 2:

Here the shape of array c is (2, 2), so we can specify the 'axis'. The condition will be as follows:

(1) If axis is not specified, it will firstly flatten the array and continue repeating operation which is like part 1.

(2) If axis = 0, it will repeat along the first dimension.

(3) If axis = 1, it will repeat along the second dimension.

15. torch的多维张量a,如果a[-1],默认代表第一axis的最后一维,即等价于a[-1,:,:,...,:]

16. torch.cat(XXX, dim = ?) 其中XXX可以是list,不一定非要tensor

17. contiguous()

亦即,对tensor进行transpose时,其实是浅拷贝,如果要深拷贝,就要在后面补上一个contiguous()

18. net是网络模型的一个object,调用zero_grad函数,表示将网络内部所有参数的梯度置0

19. torch.utils.data中的DataLoader和TensorDataset

先用TensorDataset对打包的文件进行校对,在DataLoader中会指定batch_size,假设原本data和label各N个,那么DataLoader会将其打乱后,每batch_size为一组,共N/batch_size个。

假设DataLoader返回的是iter,对iter进行for遍历的时候,假设每一轮取样为batch,则batch的长度是2,batch为一个list,这个list里面有两个元素,一个是data,一个是label,data和label的第一维大小都是batch_size。

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

相关文章

  • django框架中ajax的使用及避开CSRF 验证的方式详解

    django框架中ajax的使用及避开CSRF 验证的方式详解

    这篇文章主要介绍了django框架中ajax的使用及避开CSRF 验证的方式,结合实例形式分析了Django框架ajax后台交互与排除验证csrf相关操作技巧,需要的朋友可以参考下
    2019-12-12
  • python实现连接mongodb的方法

    python实现连接mongodb的方法

    这篇文章主要介绍了python实现连接mongodb的方法,涉及Python使用pymongo模块的基本技巧,需要的朋友可以参考下
    2015-05-05
  • Python实现将数据写入netCDF4中的方法示例

    Python实现将数据写入netCDF4中的方法示例

    这篇文章主要介绍了Python实现将数据写入netCDF4中的方法,涉及Python数据处理与文件读写相关操作技巧,需要的朋友可以参考下
    2018-08-08
  • Python中用字符串调用函数或方法示例代码

    Python中用字符串调用函数或方法示例代码

    字符串作为python中常用的数据类型,掌握字符串的常用方法十分必要。下面这篇文章主要给大家介绍了关于Python中通过字符串调用函数或方法的相关资料,需要的朋友可以参考借鉴,下面来一起看看吧。
    2017-08-08
  • Python删除空文件和空文件夹的方法

    Python删除空文件和空文件夹的方法

    这篇文章主要介绍了Python删除空文件和空文件夹的方法,涉及Python针对文件与文件夹的遍历、判断与删除等技巧,具有一定参考借鉴价值,需要的朋友可以参考下
    2015-07-07
  • python怎么创建新文件代码举例

    python怎么创建新文件代码举例

    Python创建新文件有多种方法,包括使用open函数、with语句和Pathlib模块,这篇文章主要给大家介绍了关于python怎么创建新文件的相关资料,需要的朋友可以参考下
    2023-12-12
  • Python基于traceback模块获取异常信息

    Python基于traceback模块获取异常信息

    这篇文章主要介绍了Python基于traceback模块获取异常信息,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-07-07
  • 浅析PHP与Python进行数据交互

    浅析PHP与Python进行数据交互

    本篇文章给大家分享了PHP与Python进行数据交互的详细方法以及重点点拨,有兴趣的朋友可以学习下。
    2018-05-05
  • Python OpenCV中的图像处理物体跟踪效果

    Python OpenCV中的图像处理物体跟踪效果

    我们知道怎样将一幅图像从 BGR 转换到 HSV 了,我们可以利用这一点来提取带有某个特定颜色的物体,这篇文章主要介绍了Python OpenCV中的图像处理物体跟踪,需要的朋友可以参考下
    2023-08-08
  • Pydantic中BaseConfig的具体使用

    Pydantic中BaseConfig的具体使用

    本文主要介绍了Pydantic中BaseConfig的具体使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2024-06-06

最新评论