基于python实现分析识别文章/内容中的高频词和关键词

 更新时间:2023年09月02日 09:48:27   作者:青Cheng序员石头  
要分析一篇文章的高频词和关键词,可以使用 Python 中的 nltk 库和 collections 库或者jieba库来实现,本篇文章介绍基于两种库分别实现分析内容中的高频词和关键词,需要的朋友可以参考下

nltk 和 collections 库

首先,需要安装 nltk 库和 collections 库。可以使用以下命令来安装:

pip install nltk
pip install collections

接下来,需要下载 nltk 库中的 stopwords 和 punkt 数据。可以使用以下代码来下载:

import nltk
nltk.download('stopwords')
nltk.download('punkt')

下载完成后,可以使用以下代码来读取文章并进行分析:

import collections
import nltk
from nltk.corpus import stopwords
from nltk.tokenize import word_tokenize
# 读取文章
with open('article.txt', 'r',encoding='utf-8') as f:
    article = f.read()
# 分词
tokens = word_tokenize(article)
# 去除停用词
stop_words = set(stopwords.words('english'))
filtered_tokens = [token for token in tokens if token.lower() not in stop_words]
# 统计词频
word_freq = collections.Counter(filtered_tokens)
# 输出高频词
print('Top 10 frequent words:')
for word, freq in word_freq.most_common(10):
    print(f'{word}: {freq}')
# 提取关键词
keywords = nltk.FreqDist(filtered_tokens).keys()
# 输出关键词
print('Keywords:')
for keyword in keywords:
    print(keyword)

上述代码中,首先使用 open() 函数读取文章,然后使用 word_tokenize() 函数将文章分词。接着,使用 stopwords 数据集去除停用词,使用 collections.Counter() 函数统计词频,并输出高频词。最后,使用 nltk.FreqDist() 函数提取关键词,并输出关键词。

需要注意的是,上述代码中的 article.txt 文件需要替换为实际的文章文件路径。

结巴(jieba)库实现

# 导入必要的库
import jieba
import jieba.analyse
from collections import Counter
from wordcloud import WordCloud
import matplotlib.pyplot as plt
# 读取文章
with open('./data/2.txt', 'r', encoding='utf-8') as f:
    article = f.read()
# 分词
words = jieba.cut(article)
# 统计词频
word_counts = Counter(words)
# 输出高频词
print('高频词:')
for word, count in word_counts.most_common(10):
    print(word, count)
# 输出关键词
print('关键词:')
keywords = jieba.analyse.extract_tags(article, topK=10, withWeight=True, allowPOS=('n', 'nr', 'ns'))
for keyword, weight in keywords:
    print(keyword, weight)
# 生成词云
wordcloud = WordCloud(font_path='msyh.ttc', background_color='white', width=800, height=600).generate(article)
plt.imshow(wordcloud, interpolation='bilinear')
plt.axis('off')
plt.show()
  • 导入jieba库:首先需要导入jieba库,才能使用其中的分词功能。

  • 读取文章:需要读取要分析的文章,可以使用Python内置的open函数打开文件,然后使用read方法读取文件内容。

  • 分词:使用jieba库的cut方法对文章进行分词,得到一个生成器对象,可以使用for循环遍历生成器对象,得到每个词。

  • 统计词频:使用Python内置的collections库中的Counter类,对分词后的词进行统计,得到每个词出现的次数。

  • 输出高频词:根据词频统计结果,输出出现频率最高的词,即为高频词。

  • 输出关键词:使用jieba库的analyse模块中的extract_tags方法,根据TF-IDF算法计算每个词的权重,输出权重最高的词,即为关键词。

  • 生成词云:使用wordcloud库生成词云,将文章中的词按照词频生成词云,词频越高的词在词云中出现的越大。

到此这篇关于基于python实现分析识别文章/内容中的高频词和关键词的文章就介绍到这了,更多相关python分析识别高频词和关键词内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • python beautifulsoup4 模块详情

    python beautifulsoup4 模块详情

    本文主要介绍了python beautifulsoup4模块详情,BeautifulSoup4是一款python解析库,主要用于解析HTML和XML,在爬虫知识体系中解析 HTML 会比较多一些,下文更多相关内容,需要的小伙伴可以参考一下
    2022-05-05
  • Keras实现将两个模型连接到一起

    Keras实现将两个模型连接到一起

    这篇文章主要介绍了Keras实现将两个模型连接到一起,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2020-05-05
  • Python:Scrapy框架中Item Pipeline组件使用详解

    Python:Scrapy框架中Item Pipeline组件使用详解

    这篇文章主要介绍了Python:Scrapy框架中Item Pipeline组件使用详解,具有一定借鉴价值,需要的朋友可以参考下
    2017-12-12
  • Python中Numba库装饰器的具体使用

    Python中Numba库装饰器的具体使用

    Numba是一个针对Python的开源JIT编译器,使用Numba非常方便,只需要在Python原生函数上增加一个装饰器,本文主要介绍了Python中Numba库装饰器的具体使用,感兴趣的可以了解一下
    2024-01-01
  • 通俗易懂了解Python装饰器原理

    通俗易懂了解Python装饰器原理

    这篇文章主要介绍了通俗易懂了解Python装饰器原理,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-09-09
  • Python性能分析工具py-spy原理用法解析

    Python性能分析工具py-spy原理用法解析

    这篇文章主要介绍了Python性能分析工具py-spy原理用法解析,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2020-07-07
  • 使用PyCharm和venv进行Python项目环境配置避坑指南

    使用PyCharm和venv进行Python项目环境配置避坑指南

    在进行 Python 项目开发时,一个干净,隔离且配置正确的开发环境至关重要,本文结合之前安装 Vanna 库时遇到的问题,总结了使用 PyCharm 和 venv 进行 Python 项目环境设置的最佳实践和常见坑的解决方法,有需要的小伙伴可以参考下
    2025-04-04
  • Google开源的Python格式化工具YAPF的安装和使用教程

    Google开源的Python格式化工具YAPF的安装和使用教程

    Google的开发者文档中有一套Python的代码书写规范,而在GitHub上同样开源了一款名为YAPF的命令行程序用作Python的格式化,下面我们就来看下这款Google开源的Python格式化工具YAPF的安装和使用教程
    2016-05-05
  • Python读取word文本操作详解

    Python读取word文本操作详解

    这篇文章主要介绍了Python读取word文本操作详解,介绍了涉及到的模块,相关概念,模块的安装等内容,小编觉得还是挺不错的,具有一定借鉴价值,需要的朋友可以参考下
    2018-01-01
  • pytorch多进程加速及代码优化方法

    pytorch多进程加速及代码优化方法

    今天小编就为大家分享一篇pytorch多进程加速及代码优化方法。具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-08-08

最新评论