python文本数据增强_机器学习入门-文本数据-使用聚类增加文本的标签属性

importpandas as pdimportnumpy as npimportreimport nltk #pip install nltk

corpus= ['The sky is blue and beautiful.','Love this blue and beautiful sky!','The quick brown fox jumps over the lazy dog.','The brown fox is quick and the blue dog is lazy!','The sky is very blue and the sky is very beautiful today','The dog is lazy but the brown fox is quick!']

labels= ['weather', 'weather', 'animals', 'animals', 'weather', 'animals']#第一步:构建DataFrame格式数据

corpus =np.array(corpus)

corpus_df= pd.DataFrame({'Document': corpus, 'categoray': labels})#第二步:构建函数进行分词和停用词的去除#载入英文的停用词表

stopwords = nltk.corpus.stopwords.words('english')#建立词分割模型

cut_model =nltk.WordPunctTokenizer()#定义分词和停用词去除的函数

defNormalize_corpus(doc):#去除字符串中结尾的标点符号

doc = re.sub(r'[^a-zA-Z0-9\s]', '', string=doc)#是字符串变小写格式

doc =doc.lower()#去除字符串两边的空格

doc =doc.strip()#进行分词操作

tokens =cut_model.tokenize(doc)#使用停止用词表去除停用词

doc = [token for token in tokens if token not instopwords]#将去除停用词后的字符串使用' '连接,为了接下来的词袋模型做准备

doc = ' '.join(doc)returndoc#第三步:向量化函数和调用函数#向量化函数,当输入一个列表时,列表里的数将被一个一个输入,最后返回也是一个个列表的输出

Normalize_corpus =np.vectorize(Normalize_corpus)#调用函数进行分词和去除停用词

corpus_norm =Normalize_corpus(corpus)#第四步:使用TfidVectorizer进行TF-idf词袋模型的构建

from sklearn.feature_extraction.text importTfidfVectorizer

Tf= TfidfVectorizer(use_idf=True)

Tf.fit(corpus_norm)

vocs=Tf.get_feature_names()

corpus_array=Tf.transform(corpus_norm).toarray()

corpus_norm_df= pd.DataFrame(corpus_array, columns=vocs)print(corpus_norm_df.head())#第四步:使用TfidVectorizer进行TF-idf词袋模型的构建

from sklearn.feature_extraction.text importTfidfVectorizer

Tf= TfidfVectorizer(use_idf=True)

Tf.fit(corpus_norm)

vocs=Tf.get_feature_names()

corpus_array=Tf.transform(corpus_norm).toarray()

corpus_norm_df= pd.DataFrame(corpus_array, columns=vocs)print(corpus_norm_df.head())#第五步:使用cosine_similarity构造相关性矩阵

from sklearn.metrics.pairwise importcosine_similarity

similarity_matrix=cosine_similarity(corpus_array)

similarity_matrix_df=pd.DataFrame(similarity_matrix)#第六步:构造聚类特征,这里主要是对相关性矩阵做的一种聚类,也可以对词袋模型特征做

from sklearn.cluster importKMeans

model= KMeans(n_clusters=2)

model.fit(np.array(similarity_matrix))print(model.labels_)

corpus_norm_df['k_labels'] =np.array(model.labels_)print(corpus_norm_df.head())

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值