必背概念

sigmodi公式

双曲正切

relu

relu(x)=max(0, x)

笛卡尔积

A×B={(x,y)|x∈A∧y∈B}。例如,A={a,b}, B={0,1,2},则A×B={(a, 0), (a, 1), (a, 2), (b, 0), (b, 1), (b, 2)}

libsvm的数据格式

1 1:1 32:1 90:1      这个样本是正样本,第1、32、90个位置取1,其他位置取0

均方根误差

该指标是衡量模型对回归问题的预测能力的一个重要指标


公式中每一个t代表一个样本,n表示样本的总个数

召回率

召回率是对分类器的一个评价指标,样本中一共有100个正样本,分类器预测了其中有90个正样本,猜对了其中的80个,那么召回率就是80%

用户画像

用户画像就是把用户向量化,用户画像不是推荐系统的目的,而是在构建推荐系统的过程中产生的一个关键环节的副产品。用户画像既可以用在召回阶段也可以用在排序阶段。

构建用户画像有三种方式

  1. 用户静态信息
    直接使用原始数据作为用户画像的内容,如注册的年龄、性别等统计学信息,或展现、点击历史等,除了数据清洗等工作,数据本身没有做任何抽象和归纳,这类数据在用户冷启动等场景非常有用
  2. 统计/挖掘用户历史数据
    用用户的历史数据中统计某些信息,如用户最感兴趣的标签等,这也是我目前见过的最常用的用户画像
  3. embedding
    使用各种机器学习算法构建用户的embedding,这种embedding不具有可读性,但是效果应该是挺好的

从文本中提取关键词的算法

最常用的有TF-IDF和TextRank算法

命名实体识别的方法

人物、位置和地点、著作、影视剧、历史事件和热点事件等,常用基于词典的方法结合 CRF 模型。

TF-IDF

TF(Term Frequency):词频,词在该文本中出现的次数

IDF(Inverse Document Frequency):逆文档频率,是提前统计好的。

N:一共有多少个文本(所有词的N都是一样的)

n:词在多少个文本中出现过

  1. 直观来看这个公式,n越大,说明这个词在很多文档中出现过,就说明这个词越不重要;
  2. +1的目的:当一个词从来没有出现过,n就等于0,导致IDF无穷大
  3. 对于一个新词,n应该是0,但也可以取所有n的平均数

词权重=TF*IDF,根据该权重筛选关键词时有两种方法。

  1. 给定一个K,取top K个词作为关键词,但这样不合理,若词的总个数小于K,那么左右ci都是关键词了;
  2. 计算所有词权重的平均值,大于平均值的才是关键词
  3. 在某些情况下,会根据词性进行过滤,比如只取动词和名词作为关键词

PageRank

TextRank


LDA

LDA要比传统的聚类方法更好,LDA不仅能准确地抓住主题,而且可以得到软聚类(一个文本可以属于多个类簇)的效果,

LDA需要设定主题的个数,如何筛选这个K,可以通过实验来对比,方法:

  1. 每次计算K个主题两两之间的平均相似度,选择较低的K值
  2. 只要资源够用,主题数可以尽可能的多些

Word Embedding

Word Embedding可以为每一个词计算一个K维的向量,向量中各个维度上的值大小代表了词包含各个语义的多少。拿到每个词的Embedding后可以做下面几个事情

  1. 计算词之间的相似度
  2. 累加得到一个文本的稠密向量
  3. 用于聚类






  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值