【深度之眼】七:分类 —— 过滤垃圾邮件【朴素贝叶斯算法 — 文本分类】

版权声明:本文为博主原创文章,未经博主允许不得转载。



一、数据下载

二、任务详解

  • 本节将充分利用 Python 的文本处理能力将文档切分成 词向量,然后利用词向量对 文档进行分类。我们还将构建另一个分类器,观察其在真实的垃圾邮件数据集中的过滤效果。重点掌握文本的划分,以及 朴素贝叶斯算法 在训练函数中如何实现的。

三、重点知识

3.1 TF–IDF

3.1.1 词集模型(set-of-words model)与词袋模型(bag-of-words model)的区别

  • 词袋法(BOW):该模型忽略文本的语法和语序,用一组无序的单词来表达一段文字或一个文档,词袋法中使用单词在文档中出现的次数(频数)来表示文档
  • 词集法(SOW):是词袋法的一种变种,原理同词袋法一样,是以文档中的单词来表示文档的一种模型,区别在于:词袋法使用的是单词的频数,而在词集法中使用的是单词是否出现,如果出现赋值为1,否则为0.
  • 如何评估一个单词对于一个文本的重要性呢?
    (1)单词的重要性随着它在文本中出现的次数成正比增加,也就是单词的出现次数越多,该单词对于文本的重要性就越高。
    (2) 同样单词的重要性会随着语料库中出现的频率成反比下降,也就是单词在语料库中出现的频率越高,表示该单词越常见,也就是该单词对于文本的重要性越低
  • TF-IDF是一种常用的用于信息检索与数据挖掘的常用加权技术,TF是词频,IDF是逆向文件频率,TF-IDF可以反应语料中单词对文档 / 文本的重要程度
  • 假设单词用 t 表示,文档用 d 表示,语料库用 D 表示,那么N(t,D)表示包含单词 t 的文档数量,|D|表示文档数量,|d|表示文档 d 中的所有单词数量,N(t,d)表示在文档 d 中单词t出现的次数
    在这里插入图片描述
    在这里插入图片描述

四、知识概述

在这里插入图片描述


版权声明:本文为博主原创文章,未经博主允许不得转载。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

InitialHeart2021

你的鼓励是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值