在上一章节,我们给大家简单介绍了赛题的内容和几种解决方案。从本章开始我们将会逐渐带着大家使用思路1到思路4来完成本次赛题。在讲解工具使用的同时,我们还会讲解一些算法的原理和相关知识点,并会给出一定的参考文献供大家深入学习。
Task2 数据读取与数据分析
本章主要内容为数据读取和数据分析,具体使用Pandas
库完成数据读取操作,并对赛题数据进行分析构成。
学习目标
- 学习使用
Pandas
读取赛题数据 - 分析赛题数据的分布规律
数据读取
赛题数据虽然是文本数据,每个新闻是不定长的,但仍然使用csv格式进行存储。因此可以直接用Pandas
完成数据读取的操作。
import pandas as pd
train_df = pd.read_csv('./data/train_set.csv', sep='\t', nrows=100)
这里的read_csv
由三部分构成:
-
读取的文件路径,这里需要根据改成你本地的路径,可以使用相对路径或绝对路径;
-
分隔符
sep
,为每列分割的字符,设置为\t
即可; -
读取行数
nrows
,为此次读取文件的函数,是数值类型(由于数据集比较大,建议先设置为100);
train_df.head()
label | text | |
---|---|---|
0 | 2 | 2967 6758 339 2021 1854 3731 4109 3792 4149 15... |
1 | 11 | 4464 486 6352 5619 2465 4802 1452 3137 5778 54... |
2 | 3 | 7346 4068 5074 3747 5681 6093 1777 2226 7354 6... |
3 | 2 | 7159 948 4866 2109 5520 2490 211 3956 5520 549... |
4 | 3 | 3646 3055 3055 2490 4659 6065 3370 5814 2465 5... |
上图是读取好的数据,是表格的形式。第一列为新闻的类别,第二列为新闻的字符。
数据分析
在读取完成数据集后,我们还可以对数据集进行数据分析的操作。虽然对于非结构数据并不需要做很多的数据分析,但通过数据分析还是可以找出一些规律的。
此步骤我们读取了所有的训练集数据,在此我们通过数据分析希望得出以下结论:
- 赛题数据中,新闻文本的长度是多少?
- 赛题数据的类别分布是怎么样的,哪些类别比较多?
- 赛题数据中,字符分布是怎么样的?
句子长度分析
在赛题数据中每行句子的字符使用空格进行隔开,所以可以直接统计单词的个数来得到每个句子的长度。统计并如下:
%pylab inline
train_df = pd.read_csv('./data/train_set.csv', sep='\t')
train_df['text_len'] = train_df['text'].apply(lambda x: len(x.split(' ')))
print(train_df['text_len'].describe())
Populating the interactive namespace from numpy and matplotlib
count 200000.000000
mean 907.207110
std 996.029036
min 2.000000
25% 374.000000
50% 676.000000
75% 1131.000000
max 57921.000000
Name: text_len, dtype: float64
对新闻句子的统计可以得出,本次赛题给定的文本比较长,每个句子平均由907个字符构成,最短的句子长度为2,最长的句子长度为57921。
下图将句子长度绘制了直方图,可见大部分句子的长度都几种在2000以内。
_ = plt.hist(train_df['text_len'], bins=200)
plt.xlabel('Text char count')
plt.title("Histogram of char count")
Text(0.5, 1.0, 'Histogram of char count')
新闻类别分布
接下来可以对数据集的类别进行分布统计,具体统计每类新闻的样本个数。
train_df['label'].value_counts().plot(kind='bar')
plt.title('News class count')
plt.xlabel("category")
Text(0.5, 0, 'category')
train_df['label'].value_counts()
0 38918
1 36945
2 31425
3 22133
4 15016
5 12232
6 9985
7 8841
8 7847
9 5878
10 4920
11 3131
12 1821
13 908
Name: label, dtype: int64
在数据集中标签的对应的关系如下:{‘科技’: 0, ‘股票’: 1, ‘体育’: 2, ‘娱乐’: 3, ‘时政’: 4, ‘社会’: 5, ‘教育’: 6, ‘财经’: 7, ‘家居’: 8, ‘游戏’: 9, ‘房产’: 10, ‘时尚’: 11, ‘彩票’: 12, ‘星座’: 13}
从统计结果可以看出,赛题的数据集类别分布存在较为不均匀的情况。在训练集中科技类新闻最多,其次是股票类新闻,最少的新闻是星座新闻。
字符分布统计
接下来可以统计每个字符出现的次数,首先可以将训练集中所有的句子进行拼接进而划分为字符,并统计每个字符的个数。
from collections import Counter
all_lines = ' '.join(list(train_df['text']))#将所有文本拼接起来
word_count = Counter(all_lines.split(" "))#将拼接的文本按字符拆分成list,并统计不同字符的个数,以tuple列表表示
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)#按字符出现次数降序排列
print(len(word_count))
print(word_count[0])
print(word_count[-1])
6869
('3750', 7482224)
('3133', 1)
从统计结果中可以看出,在训练集中总共包括6869个字,其中编号3750的字出现的次数最多,编号3133的字出现的次数最少。
这里还可以根据字在每个句子的出现情况,反推出标点符号。下面代码统计了不同字符在句子中出现的次数。
from collections import Counter
train_df['text_unique'] = train_df['text'].apply(lambda x: ' '.join(list(set(x.split(' ')))))#将每条文本字符去重
all_lines = ' '.join(list(train_df['text_unique']))#将所有文本拼接成一个str
word_count = Counter(all_lines.split(" "))#统计所有字符个数
word_count = sorted(word_count.items(), key=lambda d:int(d[1]), reverse = True)#按字符数降序排列
print(word_count[0])
print(word_count[1])
print(word_count[2])
('3750', 197997)
('900', 197653)
('648', 191975)
其中字符3750,字符900和字符648在20w新闻的覆盖率接近99%,很有可能是标点符号
数据分析的结论
通过上述分析我们可以得出以下结论:
- 赛题中每个新闻包含的字符个数平均为1000个,还有一些新闻字符较长;
- 赛题中新闻类别分布不均匀,科技类新闻样本量接近4w,星座类新闻样本量不到1k;
- 赛题总共包括7000-8000个字符;
通过数据分析,我们还可以得出以下结论:
-
每个新闻平均字符个数较多,可能需要截断;
-
由于类别不均衡,会严重影响模型的精度;
本章小结
本章对赛题数据进行读取,并新闻句子长度、类别和字符进行了可视化分析。
本章作业
- 假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?
- 统计每类新闻中出现次数最多的字符
a = {'a':3}
'a' in a
True
#1.假设字符3750,字符900和字符648是句子的标点符号,请分析赛题每篇新闻平均由多少个句子构成?
def count_sentence(x):
word_count = Counter(x.split(' '))
word_count = {a[0]:a[1] for a in word_count.items()}
count = 0
if '3750' in word_count:
count += word_count['3750']
if '900' in word_count:
count += word_count['900']
if '648' in word_count:
count += word_count['648']
return count if count !=0 else 1
train_df['text'].map(count_sentence).describe()
count 200000.000000
mean 78.353385
std 85.515107
min 1.000000
25% 27.000000
50% 55.000000
75% 101.000000
max 3417.000000
Name: text, dtype: float64
平均每个文本78句话
# 2.统计每类新闻中出现次数最多的字符
labels = train_df['label'].unique()
for label in labels:
data = train_df[train_df['label']==label]#选择某一类标签
all_lines = ' '.join(list(data['text']))#将所有文本拼接起来
word_count = Counter(all_lines.split(" "))
word_count = sorted(word_count.items(), key=lambda d:d[1], reverse = True)
i = 0
while word_count[i][0] in ['3750','900','648']:
i += 1
continue
print(f'类别{label}最多字符:{word_count[i][0]},出现了{word_count[i][1]}次')
类别2最多字符:7399,出现了351894次
类别11最多字符:4939,出现了18591次
类别3最多字符:6122,出现了187933次
类别9最多字符:7328,出现了46477次
类别10最多字符:3370,出现了67780次
类别12最多字符:4464,出现了51426次
类别0最多字符:3370,出现了503768次
类别7最多字符:3370,出现了159156次
类别4最多字符:4411,出现了120442次
类别1最多字符:3370,出现了626708次
类别6最多字符:6248,出现了193757次
类别5最多字符:6122,出现了159125次
类别8最多字符:6122,出现了57345次
类别13最多字符:4939,出现了9651次
关于Datawhale:
Datawhale是一个专注于数据科学与AI领域的开源组织,汇集了众多领域院校和知名企业的优秀学习者,聚合了一群有开源精神和探索精神的团队成员。Datawhale 以“for the learner,和学习者一起成长”为愿景,鼓励真实地展现自我、开放包容、互信互助、敢于试错和勇于担当。同时 Datawhale 用开源的理念去探索开源内容、开源学习和开源方案,赋能人才培养,助力人才成长,建立起人与人,人与知识,人与企业和人与未来的联结。
本次新闻文本分类学习,专题知识将在天池分享,详情可关注Datawhale: