一 数据的预处理
本文所有的例子我都将使用中文文本进行,所以在分析前需要对中文的文本进行一个预处理的过程(暂时只用的分词,去除停用词的部分后面介绍)
# -*- coding:utf-8 -*-
from nltk import FreqDist
import jieba
import pymssql
# 我的数据来源于数据库,用的是爬虫的小学数学题
conndb = pymssql.connect(host=".", user="**", password="****", database="JD")
cursor = conndb.cursor()
cursor.execute("SELECT TOP 2000 [题目] FROM [JD].[dbo].[题库]")
rows = cursor.fetchall()
#将200道题目中文分词后,并放到一个List中
text = []
for line in rows:
content = list(jieba.cut(line[0]))
for word in content:
text.append(word)
结果如下图所示,可以看到有很多标点符号和单个无意义数字