TF-IDF+sklearn 读取文件夹中文件并给出每个文件主题

# 第一步:

import os

path = 'export_output_clean' #文件夹目录
fileLists= os.listdir(path) #得到文件夹下的所有文件名称

print(fileLists)

s = []

for file in fileLists: #遍历文件夹
     if not os.path.isdir(file): #判断是否是文件夹,不是文件夹才打开
            f = open(path+"/"+file, encoding = 'utf-8'); #打开文件
            iter_f = iter(f); #创建迭代器
            str = ""
            for line in iter_f: #遍历文件,一行行遍历,读取文本
                str = str + line
            s.append(str) #每个文件的文本存到list中
            
print(s)

# 第二步:
# 数据整理,去除换行符等

def str_replace(str_source,char,*words):
    str_temp=str_source    
    for word in words:
        str_temp=str_temp.replace(word,char)
    return str_temp

a = []

for content_temp in s:
    a.append(str_replace(content_temp,",","\t","\n","\ufeff"))
    
print(a)

# 第三步:
# TF-IDF
from sklearn.feature_extraction.text import CountVectorizer
from sklearn.feature_extraction.text import TfidfTransformer
 
x_train = a
 
#该类会将文本中的词语转换为词频矩阵,矩阵元素a[i][j] 表示j词在i类文本下的词频
vectorizer = CountVectorizer(max_features=17)


#该类会统计每个词语的tf-idf权值
tf_idf_transformer = TfidfTransformer()
#将文本转为词频矩阵并计算tf-idf
tf_idf = tf_idf_transformer.fit_transform(vectorizer.fit_transform(x_train))
#将tf-idf矩阵抽取出来,元素a[i][j]表示j词在i类文本中的tf-idf权重
x_train_weight = tf_idf.toarray()

#获取词袋模型中的所有词语
word = vectorizer.get_feature_names()

print(word)
 
print('输出x_train文本向量:')
print(x_train_weight)
print(x_train_weight.argmax(axis = 1)) 

第一步结果:
在这里插入图片描述
在这里插入图片描述
第二步结果:
在这里插入图片描述
第三步结果:
在这里插入图片描述

我有268个文件,故最后输出268个数字

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是基于TF-IDF和KNN的中文文本分类代码示例: ```python import jieba import os import numpy as np from sklearn.feature_extraction.text import TfidfVectorizer from sklearn.neighbors import KNeighborsClassifier # 读取文件,返回文本和标签列表 def load_data(path): texts = [] labels = [] for label in os.listdir(path): label_path = os.path.join(path, label) for file_name in os.listdir(label_path): file_path = os.path.join(label_path, file_name) with open(file_path, 'r', encoding='utf-8') as f: text = f.read() texts.append(text) labels.append(label) return texts, labels # 分词 def cut_words(texts): cut_texts = [] for text in texts: cut_text = ' '.join(jieba.cut(text)) cut_texts.append(cut_text) return cut_texts # 构建词向量 def build_tfidf_vectorizer(texts): tfidf_vectorizer = TfidfVectorizer() tfidf_vectorizer.fit_transform(texts) return tfidf_vectorizer # 计算相似度矩阵 def compute_similarity(tfidf_vectorizer, texts): tfidf_matrix = tfidf_vectorizer.transform(texts) similarity_matrix = tfidf_matrix * tfidf_matrix.T return similarity_matrix.toarray() # 基于KNN的文本分类 def text_classification(train_texts, train_labels, test_texts, n_neighbors=5): # 分词 train_cut_texts = cut_words(train_texts) test_cut_texts = cut_words(test_texts) # 构建词向量 tfidf_vectorizer = build_tfidf_vectorizer(train_cut_texts) # 计算相似度矩阵 similarity_matrix = compute_similarity(tfidf_vectorizer, train_cut_texts) # 构建KNN模型 knn_model = KNeighborsClassifier(n_neighbors=n_neighbors, metric='precomputed') # 训练KNN模型 knn_model.fit(similarity_matrix, train_labels) # 预测测试集标签 test_similarity_matrix = compute_similarity(tfidf_vectorizer, test_cut_texts) predict_labels = knn_model.predict(test_similarity_matrix) return predict_labels # 测试代码 if __name__ == '__main__': path = 'data' # 数据集路径 train_texts, train_labels = load_data(os.path.join(path, 'train')) test_texts, test_labels = load_data(os.path.join(path, 'test')) predict_labels = text_classification(train_texts, train_labels, test_texts) print(predict_labels) # 输出预测的标签 ``` 需要注意的是,该代码中使用的是基于文件夹数据集格式,即每个文件夹代表一个类别,文件夹中包含若干个文本文件。如果您的数据集格式不同,需要根据实际情况进行修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值