一文带你掌握Python中文词频统计

 更新时间:2023年02月08日 16:39:01   作者:梦想橡皮擦  
词频统计是指在文本中计算每个词出现的次数。这篇文章主要带大家了解一下Python实现中文词频统计的方法,感兴趣的小伙伴可以了解一下

词频统计是指在文本中计算每个词出现的次数。

在 Python 中,可以使用一些第三方库(如 jieba)来分词,然后使用字典等数据结构记录每个词的词频。

Python中文词频统计知识点

  • 分词:需要对中文文本进行分词,分词的目的是将文本分解为独立的词语,便于后续的词频统计。
  • 字典:使用字典存储每个词的词频。字典的键为词语,值为词频。
  • 遍历:遍历分词后的结果,统计每个词出现的次数。
  • 排序:对字典按照词频排序,以得到词频最高的词。
  • 输出:最后,可以输出词频最高的词,也可以输出完整的词频字典。

Python中文词频分词

安装 jieba 库

pip install jieba

使用 jieba.cut() 函数对中文文本进行分词

import jieba

text = "梦想橡皮擦的Python博客很不错"
seg_list = jieba.cut(text)
print(list(seg_list))

输出结果:

['梦想', '橡皮擦', '的', 'Python', '博客', '很', '不错']

使用字典可以很方便地存储每个词语的词频

import jieba

text = "梦想橡皮擦的Python博客很不错"
seg_list = jieba.cut(text)
# print(list(seg_list))

word_dict = {}
for word in seg_list:
    print(word)
    if word in word_dict:
        word_dict[word] += 1
    else:
        word_dict[word] = 1

print(word_dict)

再次整理Python词频统计的具体实现方法:

  • 导入 jieba 库,使用 jieba.cut() 函数对中文文本进行分词。
  • 遍历分词后的结果,统计每个词出现的次数。
  • 使用字典记录每个词出现的次数。
  • 对字典按照词频排序,并输出词频最高的词。

代码示例:

import jieba

def get_word_frequency(text):
    seg_list = jieba.cut(text)
    word_dict = {}
    for word in seg_list:
        if word in word_dict:
            word_dict[word] += 1
        else:
            word_dict[word] = 1
    sorted_word_dict = sorted(word_dict.items(), key=lambda x: x[1], reverse=True)
    return sorted_word_dict

text = "梦想橡皮擦的Python博客很不错"
result = get_word_frequency(text)
print(result)

停用词

在分词时,通常会忽略一些词语,这些词语被称为停用词。如常用的助词、介词等。

在 Python 中,可以预先加载停用词表,在分词时,如果词语是停用词,则忽略。

下面是一个简单的例子:

import jieba

stop_words = set()
with open("stop_words.txt", "r",encoding='utf-8') as f:
    for line in f:
        stop_words.add(line.strip())

text = "梦想橡皮擦的Python博客很不错"
seg_list = jieba.cut(text)
filtered_words = [word for word in seg_list if word not in stop_words]
print(filtered_words)

“stop_words.txt” 文件中是停用词表,每行一个词语。在代码中,通过 with open 语句读取文件,并将每个词语加入到 stop_words 集合中。在分词后,通过列表推导式,筛选出不是停用词的词语。文件中的内容如下:

词干提取

词干提取是将词语的不同形式提取为同一词干的过程。例如 “running” 和 “runner” 可以被提取为 “run”。

在 Python 中,可以使用词干提取工具来进行词干提取,常见的词干提取工具有 nltk 库的 PorterStemmer 和 SnowballStemmer 。

下面是一个简单的例子:

import nltk
from nltk.stem import SnowballStemmer

stemmer = SnowballStemmer("english")

words = ["run", "runner", "running"]
stemmed_words = [stemmer.stem(word) for word in words]
print(stemmed_words)

SnowballStemmer 函数的第一个参数是语言。 english 表示使用英语词干提取器。

其支持多种语言,可以指定不同的语言,以使用不同的词干提取器。例如,如果是法语文本,可以使用 SnowballStemmer("french") 。

stemmer.stem(word) 是 nltk 库的 SnowballStemmer 函数的一个方法,用于提取词干。

词云图

词云图是一种展示词频的可视化图形,其中词语的大小代表词频的多少。

在 Python 中,可以使用词云库 wordcloud 来生成词云图。

以下是一个使用 wordcloud 库创建词云图的简单示例:

from wordcloud import WordCloud
import matplotlib.pyplot as plt

text = "ca1 ca2 ca3 ca4 ca4 ca4"
wordcloud = WordCloud(width=400, height=400, random_state=21, max_font_size=110).generate(text)
plt.figure(figsize=(10, 5))
plt.imshow(wordcloud, interpolation="bilinear")
plt.axis('off')
plt.show()

首先使用 WordCloud 函数创建一个词云图对象,并设置图片的宽度、高度、随机状态、字体大小等参数。

然后,使用 generate() 方法生成词云图,并将其作为参数传递给 matplotlib 的 imshow() 函数。

最后,使用 show() 方法显示词云图。

Python 中文词频分词其它库

thulac:thulac 是一个中文分词库,支持动态词性标注。

snownlp:snownlp 是一个基于 SnowNLP 的中文自然语言处理库,支持中文分词、情感分析、关键词提取等功能。

到此这篇关于一文带你掌握Python中文词频统计的文章就介绍到这了,更多相关Python中文词频统计内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • Django实现whoosh搜索引擎使用jieba分词

    Django实现whoosh搜索引擎使用jieba分词

    这篇文章主要介绍了Django实现whoosh搜索引擎使用jieba分词,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2020-04-04
  • python 中赋值,深拷贝,浅拷贝的区别

    python 中赋值,深拷贝,浅拷贝的区别

    这篇文章主要介绍了python 中赋值,深拷贝,浅拷贝的区别,下文利用实例对三者进行详细的解析,具有一的的参考价值,需要的小伙伴可以参考一下,希望对你的学习有所帮助
    2022-03-03
  • Django如何在不停机的情况下创建索引

    Django如何在不停机的情况下创建索引

    在本篇内容里小编给大家整理的是关于Django如何在不停机的情况下创建索引的相关文章,有兴趣的朋友们参考学习下。
    2020-08-08
  • python语言中print中加号、减号、乘号的应用方式

    python语言中print中加号、减号、乘号的应用方式

    这篇文章主要介绍了python语言中print中加号、减号、乘号的应用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2024-02-02
  • numpy存取数据(tofile/fromfile)的实现

    numpy存取数据(tofile/fromfile)的实现

    本文主要介绍了numpy存取数据(tofile/fromfile)的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2023-02-02
  • 10个示例带你掌握python中的元组

    10个示例带你掌握python中的元组

    这篇文章主要介绍了python中的元组的相关资料,帮助大家更好的理解和使用python,感兴趣的朋友可以了解下
    2020-11-11
  • openCV入门学习基础教程第三篇

    openCV入门学习基础教程第三篇

    pencv是用于快速处理图像处理、计算机视觉问题的工具,支持多种语言进行开发如c++、python、java等,下面这篇文章主要给大家介绍了关于openCV入门学习基础教程的相关资料,需要的朋友可以参考下
    2022-11-11
  • Python接口自动化之cookie、session应用详解

    Python接口自动化之cookie、session应用详解

    本文主要介绍cookie、session原理及在自动化过程中如何利用cookie、session保持会话状态的应用,有需要的朋友可以参考下,希望可以有所帮助
    2021-08-08
  • 实例讲解python中的序列化知识点

    实例讲解python中的序列化知识点

    本篇文章通过代码实例给大家详细分享了关于python中的序列化知识点内容,有兴趣的朋友们可以学习下。
    2018-10-10
  • 使用python将时间转换为指定的格式方法

    使用python将时间转换为指定的格式方法

    今天小编就为大家分享一篇使用python将时间转换为指定的格式方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2018-11-11

最新评论