一、读取数据
import pandas as pd
train_df = pd.read_csv('train_set.csv', sep='\t', nrows=100)
print(train_df.head())
'read_csv'由三部分组成
-‘train_set.csv' 读取的文件路径
-sep='\t' 分隔符’sep‘为每列分割的字符,设置为't'
-nrows=100 读取行数'nrows',数据集较大,先设置为100
下图为读取好的数据,第一列为新闻的类别,第二列为新闻的字符
二、数据分析
1、句子长度分析
在赛题数据中每行句子的字符使用空格进行隔开,所以可以直接统计单词的个数来得到每个句子的长度。
import pandas as pd
train_df = pd.read_csv('train_set.csv', sep='\t')
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())
分析结果如下图:
由此可知,本次赛题给定的文本比较长,每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。
将句子长度绘制成直方图
import matplotlib.pyplot as plt
_ = plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")
plt.show()
得到下图,可见大部分句子长度集中在2000以内
2、新闻类别分布
对数据集的类别进行分布统计,具体统计每类新闻的样本个数。
train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")
结果如下
在数据集中标签的对应的关系如下:{'科技': 0, '股票': 1, '体育': 2, '娱乐': 3, '时政': 4, '社会': 5, '教育': 6, '财经': 7, '家居': 8, '游戏': 9, '房产': 10, '时尚': 11, '彩票': 12, '星座': 13}
从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中,科技类新闻最多,其次是股票类新闻,最少的是星座新闻。
3、字符分布统计
from collections import Counter
all_lines = ' '.join(list(train_df['text']))
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)
print(len(word_count))
print(word_count[0])
print(word_count[-1])
结果为:
从统计结果中可以看出,在训练集中总共包括6869个字,其中编号3750的字出现的次数最多,编号3133的字出现的次数最少。
这里还可以根据字在每个句子的出现情况,反推出标点符号。下面代码统计了不同字符在句子中出现的次数,其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很有可能是标点符号。
三、本章作业
1.假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?
import re
train_df['sentence_num'] = train_df['text'].apply(lambda x: len(re.split('3750|900|648',x)))
print(sum(train_df['sentence_num'])/len(train_df['sentence_num']))
结果为:
2.2. 统计每类新闻中出现次数对多的字符
出现最多的字符前三默认为标点符号,取出现第四多的字符
from collections import Counter
for i in range(14):
all_lines = ' '.join(list(train_df[train_df['label']==i]['text']))
word_count_label = Counter([x for x in all_lines.split(" ") if x not in ['3750', '648', '900']])
print(i, word_count_label.most_common(1))
结果为: