Knesser-Ney Smoothing
Absolute disconut smoothing
出现次数最多的ngram的出现次数给减掉,放在没有出现的ngram上。适用于高维度的ngram
对于 P ( w ∣ u ) P(w|u) P(w∣u)的近似可以来源于Back-off(回退)的思想。
back-off(回退):
平滑后的Bigram: P s m o o t h i n g ( w ∣ u ) P_{smoothing}(w|u) Psmoothing(w∣u)
等于平滑前的概率: λ 1 ∗ P ( w ∣ u ) \lambda_1*P(w|u) λ1∗P(w∣u)
加上Unigram的概率: λ 2 ∗ P ( w ) \lambda_2*P(w) λ2∗P(w)
⟹ P s m o o t h i n g ( w ∣ u ) = λ 1 ∗ P ( w ∣ u ) + λ 2 ∗ P ( w ) \Longrightarrow P_{smoothing}(w|u)=\lambda_1*P(w|u)&