文章目录
上一节请看:
1.1 文本表示——词袋法:one-hot、TF-IDF、n-gram、神经概率语言模型
1.2 Bigram计算句子的概率、python实现_炫云云-CSDN博客
为什么需要平滑操作
假设有一个预料集
我 喜欢 喝 奶茶
我 喜欢 吃 巧克力
我 喜欢 健身
天啦撸,一起同过窗 要出 第三季 了
这个时候要计算“我喜欢喝咖啡”的概率
假设我们用bi-gram模型来计算,也就是说
P ( 我
1.1 文本表示——词袋法:one-hot、TF-IDF、n-gram、神经概率语言模型
1.2 Bigram计算句子的概率、python实现_炫云云-CSDN博客
假设有一个预料集
我 喜欢 喝 奶茶
我 喜欢 吃 巧克力
我 喜欢 健身
天啦撸,一起同过窗 要出 第三季 了
这个时候要计算“我喜欢喝咖啡”的概率
假设我们用bi-gram模型来计算,也就是说
P ( 我