pytorch 使用加载训练好的模型做inference
前提: 模型参数和结构是分别保存的
1、 构建模型(# load model graph)
model = MODEL()
2、加载模型参数(# load model state_dict)
model.load_state_dict ( { k.replace('module.',''):v for k,v in torch.load(config.model_path, map_location=config.device).items() } ) model = self.model.to(config.device) * config.device 指定使用哪块GPU或者CPU *k.replace('module.',''):v 防止torch.DataParallel训练的模型出现加载错误
(解决RuntimeError: module must have its parameters and buffers on device cuda:0 (device_ids[0]) but found one of them on device: cuda:1问题)
3、设置当前阶段为inference(# predict)
model.eval()
以上这篇pytorch 使用加载训练好的模型做inference就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
matplotlib bar()实现多组数据并列柱状图通用简便创建方法
这篇文章主要介绍了matplotlib bar()实现多组数据并列柱状图通用简便创建方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧2021-02-02python中的Json模块dumps、dump、loads、load函数用法详解
这篇文章主要介绍了python中的Json模块dumps、dump、loads、load函数用法讲解,本文逐一介绍结合实例代码给大家讲解的非常详细,需要的朋友可以参考下2022-11-11
最新评论