微信扫码
添加专属顾问
我要投稿
掌握NLP中停用词处理技巧,提高文本分析效率和准确性。
核心内容:
1. 停用词的定义及其在NLP中的作用
2. 停用词在高频词提取和词云图中的应用场景
3. 获取停用词的六种方法及其代码示例
在自然语言处理(NLP)研究中,停用词stopwords是指在文本中频繁出现但通常没有太多有意义的词语。这些词语往往是一些常见的功能词、虚词甚至是一些标点符号,如介词、代词、连词、助动词等,比如中文里的"的"、"是"、"和"、"了"、"。"等等,英文里的"the"、"is"、"and"、"..."等等。
停用词的作用是在文本分析过程中过滤掉这些常见词语,从而减少处理的复杂度,提高算法效率,并且在某些任务中可以改善结果的质量,避免分析结果受到这些词的干扰。
在使用jieba.analyse提取高频词时,可以事先把停用词存入stopwords.txt文件,然后用以下语句设置停用词:jieba.analyse.set_stop_words('stopwords.txt') 这样提取出的高频词就不会出现停用词了。
在使用wordcloud画词云图时,可以设置WordCloud对象的参数stopwords,把需要设置的停用词放到这个参数里(通常情况下,需要手动多次增加停用词,多轮迭代,才能绘制出满意的词云图结果)。
▲ 图1:加入停用词后的「淄博烧烤」词云图
▲ 图2:未加入停用词的「淄博烧烤」词云图
图2掺杂了太多无意义的词语,严重影响了词频分析结果,图1效果就好多了,由此可见停用词在文本分析里的重要性。
在科研领域,很多机构公开了一些停用词库,比如中文停用词表、哈工大停用词表、百度停用词表、四川大学机器智能实验室停用词库等,以方便广大科研者使用。
下面,以哈工大停用词表为例,完整代码如下:
# 读取停用词(哈工大通用停用词表)
with open('hit_stopwords.txt', 'r') as f:
stopwords_list = f.readlines()
stopwords_list = [i.strip() for i in stopwords_list]
print('停用词数量:', len(stopwords_list))
print('停用词列表:')
print(stopwords_list)
运行截图:
▲ 自定义停用词
可以看到,中文停用词还是挺全面的,共767个。
“我整理了一份较详尽的停用词词典,包含:中文停用词表、哈工大停用词表、百度停用词表、四川大学机器智能实验室停用词库,公众号老男孩的平凡之路后台回复停用词直接拿!”
3.2 用wordcloud调取停用词
Python中的wordcloud是用来画词云图的库,它可以根据文本中单词的频率或重要性,将单词以不同的大小、颜色等形式展示在图像中,从而形成一个视觉上吸引人的词云图。
同时,它也内置了英文停用词库,完整代码如下:
from wordcloud import STOPWORDS
print('停用词数量:', len(STOPWORDS))
print('停用词列表:')
print(STOPWORDS)
运行截图:
▲ 用wordcloud调取停用词
可以看到,wordcloud共包含了192个常用英文停用词。
nltk是一个流行的自然语言处理库,提供了许多文本处理和语言分析的功能。包含停用词加载、文本分词、词性标注、命名实体识别、词干提取和词形还原等常见功能。
其中,nltk内置了多种语言的停用词,下面分别介绍中文、英文停用词。
完整代码:
import nltk
from nltk.corpus import stopwords
# 下载停用词资源
nltk.download('stopwords')
# 获取中文停用词列表
stopwords_cn_list = stopwords.words('chinese')
# 打印中文停用词列表
print('中文停用词数量:', len(stopwords_cn_list))
print('中文停用词:\n', stopwords_cn_list)
运行截图:
▲ nltk 中文停用词
可以看到,nltk共包含841个中文停用词。
完整代码:
import nltk
from nltk.corpus import stopwords
# 下载停用词资源
nltk.download('stopwords')
# 获取英文停用词列表
stopwords_en_list = stopwords.words('english')
# 打印英文停用词列表
print('英文停用词数量:', len(stopwords_en_list))
print('英文停用词:\n', stopwords_en_list)
运行截图:
▲ nltk英文停用词
可以看到,nltk共包含179个英文停用词。
sklearn是一个用于机器学习的Python库,它包含了各种经典和先进的机器学习算法,如分类、回归、聚类、降维、特征选择、模型选择等。
其中,sklearn.feature_extraction是用于特征提取的模块,可以利用它调取停用词库,完整代码如下:
from sklearn.feature_extraction.text import ENGLISH_STOP_WORDS
# 打印停用词列表
print('停用词数量:', len(ENGLISH_STOP_WORDS))
print('停用词列表:')
print(list(ENGLISH_STOP_WORDS))
运行截图:
▲ sklearn调取停用词
可以看到,sklearn共包含318个英文停用词。
gensim是一个用于主题建模和自然语言处理的Python库。它提供了一组功能强大的工具和算法,用于从大规模文本语料库中提取语义主题和执行相关的文本处理任务。
其中,gensim.parsing.preprocessing是gensim库中用于文本预处理的模块。该模块提供了一系列函数和工具,用于对文本进行标记化、停用词去除、大小写转换、标点符号去除、词干提取等常见的文本预处理任务。
用gensim调取停用词,完整代码如下:
from gensim.parsing.preprocessing import STOPWORDS
# 打印停用词列表
print('停用词数量:', len(STOPWORDS))
print('停用词列表:')
print(list(STOPWORDS))
运行截图:
▲ gensim调取停用词
可以看到,gensim共包含337个英文停用词。
spacy是一个用于自然语言处理的Python库,具有高性能、易用性和多语言支持的特点。它提供了一系列的功能和工具,用于词法分析、命名实体识别、句法分析、依存关系分析等常见的自然语言处理任务。
用spacy调取停用词,完整代码如下:
import spacy
nlp = spacy.load("en_core_web_sm")
stopwords = nlp.Defaults.stop_words
# 打印停用词列表
print('停用词数量:', len(stopwords))
print('停用词列表:')
print(list(stopwords))
运行截图:
▲ spacy调取停用词
可以看到,spacy共包含326个英文停用词。
以上。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-26
深度学习!构建基于LangGraph的RAG多智能体研究工具。
2025-04-26
用RAG与Agent提升企业问答效率:我的AI实践之路
2025-04-26
理解 RAG 第一部分:为什么需要它
2025-04-26
理解 RAG 第三部分:融合检索与重新排序
2025-04-26
理解 RAG 第四部分:检索增强生成评估框架
2025-04-26
理解 RAG 第五部分:管理上下文长度
2025-04-26
RAG比之MCP或长上下文LLM,要没落了吗?
2025-04-26
【Ragflow】21.RagflowPlus(v0.2.1):6个bug修复/增加重置密码功能
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-26
2025-04-25
2025-04-22
2025-04-22
2025-04-20
2025-04-19
2025-04-18
2025-04-16