一、前言
2、本文假设读者已了解Skip-Gram-Vector和RNN相关基础,以下文章可做参考:
(1)RNN古诗词生成
(3)LSTM/GRU门控机制
二、实战
1、数据处理
(1)网络小说《神墓》,基于版权原因,请自行寻找数据源
(2)先对特殊符号进行处理,将整本小说按行分割成一个列表
def _process_words(file_list):
words = ''.join(file_list)
vocab = sorted(set(words))
mask = vocab[:110]+vocab[-57:]
mark = ['!', ',', ':', ';', '?', '~', '…', '、', '。', '.', '?', ';', ':', '.', ',', '!']
for m in mask:
words = words.replace(m, '\\') if m in mark else words.replace(m, '')
return words
(3)分割后的句子可能出现较多重复且意义不大的句子(如,啊,哈哈,等),对模型产生噪音。这里把高频句子剔除,用以下公式计算删除该句子的概率:
其中f(w)代表该句子出现的概率,t为一个阈值。
def _process_sentence_list(sentence_list, t=1e-5, threshold=0.5):
sentence_count = Counter(sentence_list)
total_count = len(sentence_list)
# 计算句子频率
sentence_freqs = {w: c / total_cou