要点:把文本句子切成一样的大小,小句子做padding,大句子做截断
一维卷积:(1)应用在时间维度上(2)Embedding长度就是通道数目(3)多种层次的卷积核
CNN不能完美解决序列式问题原因就是滑动窗口的影响,而LSTM能提取更长的依赖。
双向RNN能增强效果。CNN模型并行程度高,更快
embedding模型压缩
R-CNN文本分类模型(1)双向RNN提取特征(2)CNN进一步提取(3)Max-pooling(4)全连接层
Embedding压缩:层次参数过多,无法实用,过拟合。
方法:将一位变成二维,共享参数(理解成二进制两位数位表示四位)