PyTorch预训练Bert模型的示例

 更新时间:2020年11月17日 10:15:44   作者:BLACK  
这篇文章主要介绍了PyTorch预训练Bert模型的示例,帮助大家更好的进行机器学习,训练模型,感兴趣的朋友可以了解下

本文介绍以下内容:
1. 使用transformers框架做预训练的bert-base模型;
2. 开发平台使用Google的Colab平台,白嫖GPU加速;
3. 使用datasets模块下载IMDB影评数据作为训练数据。

transformers模块简介

transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。

本来打算预训练bert-large模型,发现colab上GPU显存不够用,只能使用base版本了。打开colab,并且设置好GPU加速,接下来开始介绍代码。

代码实现

首先安装数据下载模块和transformers包。

pip install datasets
pip install transformers

使用datasets下载IMDB数据,返回DatasetDict类型的数据.返回的数据是文本类型,需要进行编码。下面会使用tokenizer进行编码。

from datasets import load_dataset

imdb = load_dataset('imdb')
print(imdb['train'][:3]) # 打印前3条训练数据

接下来加载tokenizer和模型.从transformers导入AutoModelForSequenceClassification, AutoTokenizer,创建模型和tokenizer。

from transformers import AutoModelForSequenceClassification, AutoTokenizer

model_checkpoint = "bert-base-uncased"

tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(model_checkpoint, num_labels=2)

对原始数据进行编码,并且分批次(batch)

def preprocessing_func(examples):
  return tokenizer(examples['text'], 
           padding=True,
           truncation=True, max_length=300)

batch_size = 16

encoded_data = imdb.map(preprocessing_func, batched=True, batch_size=batch_size)

上面得到编码数据,每个批次设置为16.接下来需要指定训练的参数,训练参数的指定使用transformers给出的接口类TrainingArguments,模型的训练可以使用Trainer。

from transformers import Trainer, TrainingArguments

args = TrainingArguments(
  'out',
  per_device_train_batch_size=batch_size,
  per_device_eval_batch_size=batch_size,
  learning_rate=5e-5,
  evaluation_strategy='epoch',
  num_train_epochs=10,
  load_best_model_at_end=True,
)

trainer = Trainer(
  model,
  args=args,
  train_dataset=encoded_data['train'],
  eval_dataset=encoded_data['test'],
  tokenizer=tokenizer
)

训练模型使用trainer对象的train方法

trainer.train()

评估模型使用trainer对象的evaluate方法

trainer.evaluate()

总结

本文介绍了基于transformers框架实现的bert预训练模型,此框架提供了非常友好的接口,可以方便读者尝试各种预训练模型。同时datasets也提供了很多数据集,便于学习NLP的各种问题。加上Google提供的colab环境,数据下载和预训练模型下载都非常快,建议读者自行去炼丹。本文完整的案例下载

以上就是PyTorch预训练Bert模型的示例的详细内容,更多关于PyTorch预训练Bert模型的资料请关注脚本之家其它相关文章!

相关文章

  • 快速解释如何使用pandas的inplace参数的使用

    快速解释如何使用pandas的inplace参数的使用

    这篇文章主要介绍了快速解释如何使用pandas的inplace参数的使用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-07-07
  • Python中请使用isinstance()判断变量类型

    Python中请使用isinstance()判断变量类型

    这篇文章主要介绍了Python中请使用isinstance()判断变量类型,本文先是给出了isinstance函数判断变量类型的例子,并对isinstance 和 type的区别做了讲解,需要的朋友可以参考下
    2014-08-08
  • 一文教你利用Python制作一个C盘清理器

    一文教你利用Python制作一个C盘清理器

    关于电脑的垃圾清理操作,已经有很多的成熟的软件可以帮助我们完成C盘的垃圾清理操作,比如360等等。但是使用三方的清理软件往往伴随着很多的广告,所以本文就来用Python制作一个C盘清理器吧
    2023-03-03
  • pip和pygal的安装实例教程

    pip和pygal的安装实例教程

    这篇文章主要介绍了pip和pygal的安装实例教程,具有一定借鉴价值,需要的朋友可以参考下。
    2017-12-12
  • Python面向对象编程repr方法示例详解

    Python面向对象编程repr方法示例详解

    这篇文章主要介绍了Python面向对象编程repr方法的示例详解,文中附含详细的代码示例,有需要的朋友可以借鉴参考下,希望能够有所帮助
    2021-09-09
  • 使用Python实现简单的服务器功能

    使用Python实现简单的服务器功能

    socket的使用并不局限于Python语言,你可以用C或者Java来写出同样的socket服务器,而所有语言使用socket的方式都类似(Apache就是使用C实现的服务器)
    2017-08-08
  • Python 文件读写操作实例详解

    Python 文件读写操作实例详解

    Python提供了必要的函数和方法进行默认情况下的文件基本操作。你可以用file对象做大部分的文件操作
    2014-03-03
  • python中try Except抛出异常的使用方式

    python中try Except抛出异常的使用方式

    这篇文章主要介绍了python中try Except抛出异常的使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2023-09-09
  • Django的restframework接口框架自定义返回数据格式的示例详解

    Django的restframework接口框架自定义返回数据格式的示例详解

    这篇文章主要介绍了Django的restframework接口框架自定义返回数据格式,本文介绍了通过Django的restframework接口框架自定义Response返回对象来自定义返回数据格式,本文通过示例代码给大家介绍的非常详细,需要的朋友可以参考下
    2022-07-07
  • Django中使用Redis配置缓存的方法步骤

    Django中使用Redis配置缓存的方法步骤

    本文主要介绍了Django中使用Redis配置缓存的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2024-05-05

最新评论