![358ad13007f831f121dabdf5a7827ba8.png](https://i-blog.csdnimg.cn/blog_migrate/7a3d7c85a77ca6022efd3c5a9ff31998.jpeg)
让人困惑的困惑度
发现网络上流传的关于困惑度(perplexity)大多数都是利用了N-gram
或者主题模型
的例子来阐述的。但是现在这个年代来学习这个指标的人多半都是想研究神经网络
的,而两者对困惑度的计算方法又很不同,这就不能不让人对“困惑度”感到“困惑”了。本人虽然才疏学浅,还是斗胆在这里尝试写一篇文章,试图用简洁的方式来梳理清楚其中的困惑。
困惑度的基本定义
首先,困惑度是用来评价语言模型
好坏的指标。语言模型是衡量句子好坏的模型,本质上是计算句子的概率:
对于句子s(词语w的序列):
![b184947b2494b0dfd56243b7188e4546.png](https://i-blog.csdnimg.cn/blog_migrate/d61764fb91b7ee5f469c0004b4c8da32.png)
它的概率为:【公式1】
![7030ffa2c73d34514d3734dda9930431.png](https://i-blog.csdnimg.cn/blog_migrate/dfdbea531e3c805bf5462e1a130a9856.png)
困惑度与测试集上的句子概率相关,其基本思想是:给测试集的句子赋予较高概率值的语言模型较好,当语言模型训练完之后,测试集中的句子都是正常的句子,那么训练好的模型就是在测试集上的概率越高越好[1],公式如下:
![f20a3c6e34048f5179f4cd3d53278919.png](https://i-blog.csdnimg.cn/blog_migrate/5f8b0a0743428bad028e129168f4a30b.png)
这里想补充一下参考资料里没有强调的一些点