NLP基础学习(五) 模型复杂度 O = E * T * Q O是模型复杂度 E是训练迭代次数 T是数据集的大小 Q是模型计算复杂度 基于NNLM的模型复杂度: 基于循环神经网络的语言模型(RNNLM) skip-gram模型复杂度: CBOW模型复杂度: 总体的比较: 三点结论: 采用层次softmax与负采样比前馈神经网络与循环神经网络要快CBOW比skip-gram要快负采样不层次softmax要快