数学
a540366413
这个作者很懒,什么都没留下…
展开
-
事件的互不相容和独立的区别
在学习概率论与数理统计的过程中对互不相容和独立的概念有些混淆,经过网上搜索资料和理解,两者考虑的角度不同,总结如下: 1. 互不相容考虑的是事件是否能同时发生。A和B互不相容的意思是A发生B就不可能发生。B发生A就不可能发生,也就是说A和B不能同时发生。 2. 独立考虑的是两个事件的关联性,一个事件的发生能否影响另一个事件。A和B独立的意思就是,A发生和B发生没有关系,A发生不会影响B发生,A和原创 2017-04-01 16:13:21 · 18891 阅读 · 1 评论 -
皮尔逊相关系数公式
皮尔逊相关系数三种形式:原创 2017-05-11 10:01:43 · 7394 阅读 · 0 评论 -
欧氏距离
欧式距离可以计算n维空间点之间的距离,原理就是对应维坐标差的平方和开根号。 x1和x2为n维向量先从二维开始距离举例 n=2 X1=(x1,y1) X2=(x1,y1) 三维 n=3 X1=(x1,y1,z1) X2=(x2,y2,z2) 推广到n维 n=n X1=(x11,….x1n) X2=(x21,….x2n) 用数学符号简写为原创 2017-05-16 15:44:03 · 2100 阅读 · 0 评论 -
Tanimoto系数
Tanimoto系数和皮尔逊系数还要欧氏距离一样可以用来判断两个数据的相关程度。 Tanimoto系数可以表示为两个集合的交比上两个集合的并举例: 两个人拥有相同的东西/两个人所有的东西 可以看出两个人的相关程度,如果拥有相同东西越多表明两个人的兴趣爱好越相同(一般情况下)原创 2017-05-17 16:40:53 · 8965 阅读 · 0 评论 -
信息熵
在学习机器学习相关算法时碰到信息熵概念,因为毕业工作一年多时间,数学知识都还给了学校,所以只能业余时间学习数学相关知识。 信论产生背景这里就不介绍了,大家自行google或者百度。信息熵信息熵是用来衡量信息的大小,就像长宽高是用来衡量物体大小,时分秒是用来衡量时间大小。信息熵也有自己的单位–bit,bit就是衡量信息大小的单位。信息熵是信息论中用于度量信息量的一个概念。一个系统越是有序,信息熵就越原创 2017-05-02 14:26:17 · 1037 阅读 · 0 评论