# 加载自定义词典(直到退出程序前自定义词典都有效)
import jieba
jieba.load_userdict('dict_path(txt)')
# 去停用词分词方法一:使用jieba.analyse加载停用词表并分词
# 该方法同时完成去停用词、分词、计算tf-idf值并按重要性大小输出结果(默认输出tf-idf排名前20的词)
from jieba import analyse as ana
ana.set_stop_words('stopwords_path(txt)')
ana.extract_tags(txt)
# 去停用词分词方法二:基于函数的去停用词分词
# 生成停用词表
with open('stopwords_path(txt)'