![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 69
Riverhope
这个作者很懒,什么都没留下…
展开
-
机器学习升级版第七期——第八课logistic回归
logistic/softmax原创 2017-12-19 17:15:43 · 533 阅读 · 0 评论 -
机器学习升级版第七期——第二课(概率论与贝叶斯先验)
基本的概率论在机器学习中涉及到的知识点,以及一些代码实现原创 2017-12-03 16:22:10 · 682 阅读 · 0 评论 -
SVD奇异值分解
奇异值分解是一个有着很明显的物理意义的一种方法,(马同学一个形象生动的例子)它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示(矩阵相乘的本质),这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上的特征是有着无数种的,之所以能这么描述,是因原创 2017-12-13 10:20:58 · 594 阅读 · 0 评论 -
关于代码实现一个数求平方根
记该数为a,a的平方根记为x,则√a=x,写为x^2=a,f(x)=x^2-a,那么求方根的问题就转化为求f(x)在x轴交点的问题;若F(x)为f(x)的原函数,F'(x)=f(x)=x^2-a=0,就是求F(x)极值点的问题了(这样就转化到梯度下降上去了)原创 2017-12-21 19:16:34 · 9386 阅读 · 2 评论 -
python 里map()函数想到的外国人为什么要这么定义函数
首先 map(function, iterable,...)function -- 函数,有两个参数,iterable -- 一个或多个序列举个例子>>map(square,[1,2,3,4,5])# 计算列表和:1+2+3+4+5[1,4,9,16,25]1)如果这个函数是中国人来定义的话至少应该是map(function, itera原创 2017-12-22 10:58:07 · 447 阅读 · 0 评论 -
信息熵 entropy
熵最早是由热力学定义的一个函数,是普朗克来中国讲学的时候引入的。英文是“entropy”这个字,中文词汇中没有相关的字眼。当时是一个有名的姓胡的学者作为普朗克的翻译。因为这个熵“S”是定义为热量Q与温度的比值,所以当时他翻译是立刻创造出熵这个字,从火,从商。1、为什么有的信息量大有的信息量小?有些事情本来不是很确定,例如明天股票是涨还是跌。如果你告诉我明天NBA决赛开始了,这两转载 2018-01-03 15:34:22 · 2186 阅读 · 0 评论 -
Ridge和lasso回归实现的一个小案例
来自于邹博机器学习第七期第九课中的内容:简单介绍就是一个产品的销量sales与TV、radio、newspaper三个投入量之间的关系。原创 2017-12-26 22:02:55 · 7286 阅读 · 1 评论 -
SVM的一些学习心得及案例(Python代码)实现
1、基本概念向量的内积即一个向量在另一个向量上的投影乘上被投影向量的模,上图不管是a投影在b上,还是b投影在a上,其结果是一样的,原理参照 B站上 3Blue1Browna∙b = (a1e1 + a2e2)∙(b1e1 + b2e2) = a1b1e1e1 + a1b2e1e2 + a2b1e2e1 +原创 2018-01-22 21:41:06 · 15608 阅读 · 3 评论