python搭建NPL模型的详细步骤和代码

 更新时间:2026年04月10日 09:57:45   作者:yingjuxia.com  
本文提供2026年最新中文NLP模型搭建教程,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧

“NPL模型”我理解为 NLP(Natural Language Processing,自然语言处理)模型 的笔误(非常常见),如果不是请立刻告诉我。

下面给你一套从 0 到 1 可直接运行的完整教程,2026 年最推荐的方案是 Hugging Face Transformers,因为:

  • 代码最简洁(几行就能跑通)
  • 支持中文极好
  • 自动处理分词、训练、评估、部署
  • 社区模型最丰富

一、推荐学习路径(建议顺序)

  1. 先用 pipeline 零代码跑通(5 分钟见效果)
  2. 再完整微调一个模型(掌握全流程)
  3. 最后部署成 API(可选)

我们今天直接走 第 2 步:完整微调中文情感分析模型(基于 bert-base-chinese)

二、完整步骤 + 可复制代码

步骤 1:环境准备(推荐新建虚拟环境)

# 1. 创建虚拟环境
conda create -n nlp python=3.11 -y
conda activate nlp
# 2. 安装核心库(2026 年推荐组合)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu   # CPU版(有GPU换cuda版本)
pip install transformers datasets accelerate evaluate pandas scikit-learn

步骤 2:准备数据(使用公开中文数据集)

from datasets import load_dataset
# 加载中文情感分析数据集(Seamew/ChnSentiCorp)
dataset = load_dataset("seamew/ChnSentiCorp")
print(dataset)
# 输出:DatasetDict({
#     train: Dataset({...}),
#     validation: Dataset({...}),
#     test: Dataset({...})
# })
# 查看前3条数据
print(dataset["train"][0:3])

步骤 3:数据预处理(Tokenizer)

from transformers import AutoTokenizer
model_name = "bert-base-chinese"   # 中文预训练模型
tokenizer = AutoTokenizer.from_pretrained(model_name)
def preprocess_function(examples):
    return tokenizer(examples["text"], 
                     truncation=True,      # 超长自动截断
                     padding="max_length", # 统一长度
                     max_length=128)
# 应用到整个数据集
tokenized_datasets = dataset.map(preprocess_function, batched=True)

步骤 4:加载模型 + 设置训练参数

from transformers import AutoModelForSequenceClassification, TrainingArguments, Trainer
import evaluate
import numpy as np
# 加载模型(2分类:正面/负面)
model = AutoModelForSequenceClassification.from_pretrained(model_name, num_labels=2)
# 评估指标(准确率 + F1)
accuracy = evaluate.load("accuracy")
f1 = evaluate.load("f1")
def compute_metrics(eval_pred):
    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    acc = accuracy.compute(predictions=predictions, references=labels)
    f1_score = f1.compute(predictions=predictions, references=labels, average="macro")
    return {"accuracy": acc["accuracy"], "f1": f1_score["f1"]}
# 训练参数(可根据显存调整)
training_args = TrainingArguments(
    output_dir="./results",          # 输出目录
    eval_strategy="epoch",           # 每轮评估
    save_strategy="epoch",
    learning_rate=2e-5,
    per_device_train_batch_size=16,
    per_device_eval_batch_size=16,
    num_train_epochs=3,              # 建议 3-5 轮
    weight_decay=0.01,
    logging_dir="./logs",
    report_to="none",                # 不上传 wandb
    load_best_model_at_end=True,
    metric_for_best_model="f1"
)

步骤 5:开始训练(核心代码)

trainer = Trainer(
    model=model,
    args=training_args,
    train_dataset=tokenized_datasets["train"],
    eval_dataset=tokenized_datasets["validation"],
    compute_metrics=compute_metrics,
    tokenizer=tokenizer,   # 自动保存 tokenizer
)

print("开始训练...")
trainer.train()

# 训练结束后在测试集上评估
test_results = trainer.evaluate(tokenized_datasets["test"])
print("测试集结果:", test_results)

步骤 6:保存模型 & 推理测试

# 保存模型
trainer.save_model("./my_chinese_sentiment_model")
tokenizer.save_pretrained("./my_chinese_sentiment_model")

# 加载推理(最常用方式)
from transformers import pipeline

sentiment_pipeline = pipeline(
    "sentiment-analysis",
    model="./my_chinese_sentiment_model",
    tokenizer="./my_chinese_sentiment_model"
)

# 测试
texts = [
    "这家餐厅的服务态度非常好,菜也超级美味!",
    "完全是浪费钱,东西难吃还贵,差评!",
    "一般般吧,没什么特别的。"
]

results = sentiment_pipeline(texts)
for text, res in zip(texts, results):
    label = "正面" if res["label"] == "LABEL_1" else "负面"
    print(f"文本: {text}\n预测: {label} (置信度: {res['score']:.4f})\n")

三、完整项目结构推荐(中型项目)

nlp_sentiment_project/
├── data/                  # 原始数据
├── models/                # 保存的模型
├── results/               # 训练输出
├── logs/
├── main.py                # 训练主文件
├── inference.py           # 推理脚本
├── requirements.txt
└── README.md

四、常见问题 & 优化建议(2026 经验)

问题解决方案
显存不够改小 batch_size=8 或用 torch.cuda.empty_cache()
中文效果差换用 hfl/chinese-bert-wwm-ext 或 chinese-roberta-wwm-ext
想更快训练加 --fp16(混合精度)或用 unsloth 加速微调
部署成 API用 FastAPI + pipeline(下节课可讲)
多分类/多标签把 num_labels 改成对应类别数即可

五、下一步建议

  1. 今天就把上面代码跑通(CPU 也只需要 10–30 分钟)
  2. 换成你自己的数据集(电商评论、电影短评等)
  3. 尝试其他任务:文本分类、命名实体识别、机器翻译

到此这篇关于python搭建NPL模型的详细步骤和代码的文章就介绍到这了,更多相关python搭建NPL模型内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Python全栈之学习CSS(1)

    Python全栈之学习CSS(1)

    这篇文章主要为大家介绍了Python全栈之CSS,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望能够给你带来帮助
    2022-01-01
  • python+VTK环境搭建及第一个简单程序代码

    python+VTK环境搭建及第一个简单程序代码

    这篇文章主要介绍了python+VTK环境搭建及第一个简单程序代码,简单介绍了vtk,然后分享了安装步骤,最后涉及一个简单的代码示例,具有一定借鉴价值,需要的朋友可以参考下。
    2017-12-12
  • 详解Python的Django框架中的中间件

    详解Python的Django框架中的中间件

    这篇文章主要介绍了详解Python的Django框架中的中间件,包括中间件的安装等内容,需要的朋友可以参考下
    2015-07-07
  • Python Flask + Redis 程序练习

    Python Flask + Redis 程序练习

    这篇文章主要给大家分享Python Flask + Redis 程序的练习,准备一个Python文件,名字为 app.py 提供一个web服务,可以访问地址,返回一个Hello Container World!并且记录访问的次数,下面来看看有趣的练习过程吧
    2022-01-01
  • 使用keras实现BiLSTM+CNN+CRF文字标记NER

    使用keras实现BiLSTM+CNN+CRF文字标记NER

    这篇文章主要介绍了使用keras实现BiLSTM+CNN+CRF文字标记NER,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-06-06
  • Jupyter notebook无法链接内核、运行代码问题

    Jupyter notebook无法链接内核、运行代码问题

    文章主要介绍了在VSCode中使用Jupyter Notebook遇到的问题及其解决过程,问题包括包版本冲突、文件冲突、路径错误和找不到文件,通过逐一排查和安装相关依赖包,最终解决了这些问题,使得Jupyter Notebook可以在VSCode中正常运行
    2025-02-02
  • Python 多个图同时在不同窗口显示的实现方法

    Python 多个图同时在不同窗口显示的实现方法

    今天小编就为大家分享一篇Python 多个图同时在不同窗口显示的实现方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-07-07
  • Python3爬虫之urllib携带cookie爬取网页的方法

    Python3爬虫之urllib携带cookie爬取网页的方法

    今天小编就为大家分享一篇Python3爬虫之urllib携带cookie爬取网页的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-12-12
  • Python中的条件控制语句详解

    Python中的条件控制语句详解

    这篇文章主要介绍了Python中的条件控制语句,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2025-04-04
  • 基于python判断目录或者文件代码实例

    基于python判断目录或者文件代码实例

    这篇文章主要介绍了基于python判断目录或者文件代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-11-11

最新评论