传统的语言模型基于计数的n-gram模型,需要大量内存,表现越好,所需内存越大
解决办法:递归神经网络rnn
实际上是在扩展每个时间步长上相同的矩阵,所以在某种程度上可以将这种矩阵乘法看作是一个在所有时间步长上反复放大某些特定模式的过程。
F1本质上是精确率和召回率的调和平均值
传统的语言模型基于计数的n-gram模型,需要大量内存,表现越好,所需内存越大
解决办法:递归神经网络rnn
实际上是在扩展每个时间步长上相同的矩阵,所以在某种程度上可以将这种矩阵乘法看作是一个在所有时间步长上反复放大某些特定模式的过程。
F1本质上是精确率和召回率的调和平均值