机器学习基础
weixin_43301900
这个作者很懒,什么都没留下…
展开
-
因果推断笔记1基础符号及表述
1 当发生事件a时 产生结果Y假设 a {0,1} 0为未发生事件a 1为发生, Y {0,1} 0为未产生结果Y 1为产生则 为未发生事件a 观测到Y产生 为发生事件a 观测到Y产生为发生事件a 未观测到Y产生注:对于个体事件 即a是否发生对Y没有啥影响则不存在因果关系,反之亦然。所以个体存在因果关系可表述为2 当所有个体都发生事件a或不发生事件a产生的结果表示a发生观测事件发生的比例表示a未发生观测事件发生的比例那么事件A对Y事件存在因果效应。如果则...原创 2022-04-14 19:13:19 · 952 阅读 · 0 评论 -
Pytorch中的dim
使用工具时dim设置容易弄混,做一个小的总结关于dim的设置感觉最简易的一种理解是:只有dim指定的维度是可变的,其他都是固定不变的。详情见:Pytorch笔记:维度dim的定义及其理解使用_Activewaste-CSDN博客如果dim=0,即行是可变的,列数不变torch.arange(0,6).view(2,3)输出:tensor([[0, 1, 2], [3, 4, 5]])torch.arange(0,6).view(2,3).sum(dim=0, keepd原创 2021-10-07 00:27:00 · 161 阅读 · 0 评论 -
概率的链式法则
文本处理经常会将语言模型假设成词的联合概率,如一句话假设为:p(w1,w2...wn)这个联合概率没办法直接求解,并且转化成条件概率才能包含词间关系。如 p(a,b,c) = p(a|bc) p(bc)= p(a|bc)p(b|c)p(c)这里推广到n个随机变量p(w1,w2,w3...wn) = p(w1|w2,w3...wn)p(w2,w3....wn) = p(w1|w2,w3...wn)p(w2|w3....wn)p(w3....wn)p(w1)可以看做w1词出现的概..原创 2021-10-05 23:51:20 · 590 阅读 · 0 评论 -
点互信息pmi
由于在文本处理中会用到互信息所以做一下总结pmi(Pointwise Mutual Information):如果a和b不相关值为1。当ab条件独立时,p(a|b) = p(a)此时pmi为0。如果ab的联合概率越大则该值越大。在文本处理中经常会遇到计算pmi其中 p(a,b) 为 a和b共现的次数/总字符数(如果ab均代表字符的情况下也就是unigram)p(a) 为 a出现的次数/总字符数,p(b) 为b出现的次数/总字符数这里联合概率是存在一些问题的因为p(a,b)原创 2021-10-05 23:25:51 · 243 阅读 · 0 评论 -
基础求导规则
为了方便记录基础的求导规则:加法规则:减法规则:乘法规则:除法规则:基础公式原创 2021-09-22 20:49:53 · 240 阅读 · 0 评论 -
sigmoid函数简单推导
由于是比较常用的函数,所以记录一下。原创 2021-09-22 23:05:59 · 107 阅读 · 0 评论