pytorch中nn.Conv1d的用法详解
先粘贴一段official guide:nn.conv1d官方

我一开始被in_channels、out_channels卡住了很久,结果发现就和conv2d是一毛一样的。话不多说,先粘代码(菜鸡的自我修养)
class CNN1d(nn.Module):
def __init__(self):
super(CNN1d,self).__init__()
self.layer1 = nn.Sequential(
nn.Conv1d(1,100,2),
nn.BatchNorm1d(100),
nn.ReLU(),
nn.MaxPool1d(8))
self.layer2 = nn.Sequential(
nn.Conv1d(100,50,2),
nn.BatchNorm1d(50),
nn.ReLU(),
nn.MaxPool1d(8))
self.fc = nn.Linear(300,6)
def forward(self,x):
#input.shape:(16,1,425)
out = self.layer1(x)
out = out.view(out.size(0),-1)
out = self.fc(out)
return out
输入的数据格式是(batch_size,word_vector,sequence_length),我设置的batch=16,特征工程样本是1x425,套用该格式就应该是(16,1,425)。对应nn.Conv1d的in_channels=1,out_channels就是你自己设置的,我选择的是100。
因为我做的是分类场景,所以做完两次一维卷积后还要加上一个线性层。
以上这篇pytorch中nn.Conv1d的用法详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
Python中类方法@classmethod和静态方法@staticmethod解析
这篇文章主要介绍了Python中类方法@classmethod和静态方法@staticmethod解析,python中存在三种方法,分别为常规方法(定义中传入self)、@classmethod修饰的类方法、@staticmethod修饰的静态方法,,需要的朋友可以参考下2023-08-08
Python自定义聚合函数merge与transform区别详解
这篇文章主要介绍了Python自定义聚合函数merge与transform区别详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下2020-05-05


最新评论