Sogou的语料库的问题


最近在训练HMM模型的时候,发现一句话的结果很奇怪,原文“据北京中原地产...”。可是我的模型输出结果是“聚北京中原....”。程序写错了? 不应该呀,模型调试过好多次应该没有这么严重的问题呀。

 

于是开始从数据下手,发现二元的“聚北”和三元的“聚北京”出现次数异常的高,远远超过“据北京”的频率,这样导致最终的模型计算概率的结果出现问题。再返回到最原始的抽取数据去看看到底什么内容是“聚北京”呢。于是从500多GB的原始数据里去grep,发现一句话“>>全球顶尖保镖将齐聚北京WS”出现次数异常高,还有就是“>>盖茨举家看奥运众富豪聚北京<<”,这两句话几乎每个统计文件里出现的次数都达到数千次。

 

这也许就是从互联网统计数据的一个问题,有时候一个比较热门的新闻被转载太多次数,导致某些关键字的统计结果出现问题。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
基于CNN(卷积神经网络)的文本分类问题是利用CNN模型对搜狗语料库中的文本数据进行分类的任务。 搜狗语料库是包含大量文本数据语料库,我们可以将其用于训练和测试CNN模型,以完成文本分类的任务。CNN模型在计算机视觉领域中得到了很好的应用,并且也被成功应用于文本分类任务上。 首先,我们将搜狗语料库中的文本数据进行预处理,例如去除噪声、分词、去停用词等。然后,我们将预处理后的文本数据转换成词嵌入向量,以便用于训练CNN模型。 在CNN模型中,我们将利用卷积层和池化层来提取文本数据的特征。卷积层通过滑动窗口的方式,对文本数据进行特征提取。通过不同大小的滤波器,我们可以得到多个特征图,每个特征图对应一个不同的特征。池化层用于下采样,进一步减少数据的维度,并保留重要的特征。 接着,我们将提取到的特征进行扁平化,并结合全连接层进行分类。全连接层将提取到的特征转换成概率值,代表每个类别的概率。 在训练过程中,我们将通过反向传播算法来更新CNN模型的参数,以最小化损失函数。为了评估模型的性能,我们可以使用交叉熵损失和准确率等指标。 最后,通过测试集对训练好的CNN模型进行评估,以评估其在分类任务中的性能。我们可以比较模型在不同类别的准确率和整体准确率,来评估其分类性能的优劣。 综上所述,基于CNN的文本分类在搜狗语料库上是一项具有挑战性的任务,通过合理的数据预处理和CNN模型的训练,我们可以得到高效准确的文本分类结果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值