python更新list内存不足_求助!!!小哥哥们看过来哦,为什么显示内存不足呢...

该楼层疑似违规已被系统折叠 隐藏此楼查看此楼

# 采用TF-IDF方法提取文本关键词

import sys,codecs

import pandas as pd

import numpy as np

import jieba.posseg

import jieba.analyse

from sklearn import feature_extraction

from sklearn.feature_extraction.text import TfidfTransformer

from sklearn.feature_extraction.text import CountVectorizer

"""

TF-IDF权重:

1、CountVectorizer 构建词频矩阵

2、TfidfTransformer 构建tfidf权值计算

3、文本的关键字

4、对应的tfidf矩阵

"""

# 数据预处理操作:分词,去停用词,词性筛选

def dataPrepos(text,stopkey):

l=[]

pos=['n', 'nz', 'v', 'vd', 'vn', 'l', 'a', 'd'] # 定义选取的词性

seg=jieba.posseg.cut(text) # 分词

for i in seg:

if i.word not in stopkey and i.flag in pos: # 去停用词 + 词性筛选

l.append(i.word)

return l

# tf-idf获取文本top3关键词

def getKeywords_tfidf(data,stopkey,topK):

idList,titleList,abstractList=data['id'],data['title'],data['abstract']

corpus=[] # 将所有文档输出到一个list中,一行就是一个文档

for index in range(len(idList)):

text=str(abstractList[index])# 拼接标题和摘要

text=dataPrepos(text,stopkey) # 文本预处理

text=" ".join(text) # 连接成字符串,空格分隔

corpus.append(text)

# 1、构建词频矩阵,将文本中的词语转换成词频矩阵

vectorizer=CountVectorizer()

X=vectorizer.fit_transform(corpus) # 词频矩阵,a[i][j]:表示j词在第i个文本中的词频

# 2、统计每个词的tf-idf权值

transformer=TfidfTransformer()

tfidf=transformer.fit_transform(X)

# 3、获取词袋模型中的关键词

word=vectorizer.get_feature_names()

# 4、获取tf-idf矩阵,a[i][j]表示j词在i篇文本中的tf-idf权重

weight=tfidf.toarray()

# 5、打印词语权重

ids,titles,keys=[],[],[]

for i in range(len(weight)):

print(u"-------这里输出第", i+1 , u"篇文本的词语tf-idf------")

ids.append(idList[i])

titles.append(abstractList[i])

df_word,df_weight=[],[] # 当前文章的所有词汇列表、词汇对应权重列表

for j in range(len(word)):

print(word[j],weight[i][j])

df_word.append(word[j])

df_weight.append(weight[i][j])

df_word=pd.DataFrame(df_word,columns=['word'])

df_weight=pd.DataFrame(df_weight,columns=['weight'])

word_weight=pd.concat([df_word, df_weight], axis=1) # 拼接词汇列表和权重列表

word_weight=word_weight.sort_values(by="weight",ascending = False) # 按照权重值降序排列

keyword=np.array(word_weight['word']) # 选择词汇列并转成数组格式

word_split= [keyword[x] for x in range(0,topK)] # 抽取前topK个词汇作为关键词

word_split=" ".join(word_split)

keys.append(word_split.encode("utf-8"))

result=pd.DataFrame({"id": ids, "title": titles, "key": keys},columns=['id','title','key'])

return result

def main():

# 读取数据集

dataFile=('01.csv')

data=pd.read_csv(dataFile,encoding='gbk')

# 停用词表

stopkey=[w.strip() for w in codecs.open('data/stopWord.txt','r',encoding='utf-8').readlines()]

# tf-idf关键词抽取

result=getKeywords_tfidf(data,stopkey,3)

result.to_csv("result/keys_TFIDF.csv",index=False)

if __name__ == '__main__':

main()

\

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值