算法总结
文章平均质量分 91
csdn_black
程序使世界更美好!
展开
-
【机器学习】最小二乘法的来源
原创 2018-05-09 11:07:18 · 497 阅读 · 0 评论 -
【机器学习】朴素贝叶斯进行文本分类
基本步骤(2分类):根据要分类的文本,建立不重复词的列表->对于每一条文本,转化‘文档向量’(此向量长度为上一步的列表,值为1或者0)->根据计算分类概率,大概思路是训练一个文档集合(已转化为文档向量),若文档为1,把文档list对应位置相加作为分子,同时分母+1,这样最后加起来的list再除分母(后面称这个分子除分母为listA)就得到了文档为1时所有单词的概率,即,在预测x文档向量...原创 2018-07-10 11:29:44 · 526 阅读 · 0 评论 -
【深度学习】梯度下降优化方法
指数加权平均的概念上图中的0.9称之为β,θ1代表第一天的温度,v相当于平均1/(1-β)的天数的数据解释:当到10天后,由于0.9的10次方减少到比较小的值,故可认为v相当于平均1/(1-β)的天数的数据,此时β为0.9 动量梯度下降(Momentum)更新w:w=w-αVdw 更新b同理效果(红色为采用动量梯度下降后):RMSprop梯度下降更新参数:Adam优化梯度下降修正后的动量和RM...原创 2018-07-11 22:34:11 · 839 阅读 · 0 评论 -
【深度学习】感受野
参考https://www.jianshu.com/p/856538bde67f核心公式:n_in:输入图特征大小(开始就是原始图的某维度,比如30*30的图片,n_in就是30)p:padding大小k:卷积核大小(比如3*3的卷积核,k就是3)s:步长n_out:输出图像特征大小j_in:输入图特征间的间隔j_out:输出图特征间的间隔r_in:输入图感受野的大小r_out:输出图感受野的大小...原创 2018-07-06 16:49:30 · 994 阅读 · 0 评论 -
【机器学习】K-means算法和DBSCAN算法
一张图搞定k-means:初始化指定分为几个簇,比如上图是分2个簇第一步:随机找2个质心,根据欧氏距离分类(c)第二步:根据c图,再重新求红色的质心,蓝色的质心第三步:根据新的质心重新分配样本(e)迭代二三步,直到质心不再发生改变DBSCAN(Density Based Spatial Clustering of Applications with Noise):...原创 2018-07-06 21:20:01 · 1110 阅读 · 0 评论 -
【深度学习】数据归一化与标准化
参考:https://www.zhihu.com/question/20455227https://www.jianshu.com/p/4c3081d40ca61. 什么是数据归一化?归一化(标准化)可以定义为:归一化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保证模型运行时收敛加快。归一化和标准化的区别:...原创 2018-07-13 14:46:37 · 19010 阅读 · 2 评论 -
【机器学习】关于样本不均衡问题
参考:https://www.jianshu.com/p/be343414dd24问题解决难度:大数据+分布均衡<大数据+分布不均衡<小数据+数据均衡<小数据+数据不均衡方法一:采样采样分为上采样和下采样:上采样会把小众样本复制多份,这样容易造成过拟合问题,解决方法是在重复样本中加入轻微的随机扰动下采样是随机选取大众类,使其和小众类有相同的样本,这样会造成模型的不完整,解决方法是...原创 2018-07-07 10:37:35 · 1073 阅读 · 0 评论 -
【机器学习】各种回归总结
参考:https://mp.weixin.qq.com/s/mr83EK24S94b_UUlecyqlAhttps://www.jianshu.com/p/1677d27e08a7http://www.360doc.com/content/17/0608/14/38334011_661059440.shtml转载 2018-08-10 16:03:47 · 516 阅读 · 0 评论 -
【机器学习】梯度下降、牛顿法、拟牛顿法
梯度下降的数学原理:https://mp.weixin.qq.com/s?__biz=MzIwOTc2MTUyMg==&mid=2247484072&idx=1&sn=ada7113781fa20a61e1b3d84df98f7bb&chksm=976fa735a0182e238443c35584bb7f5c2dd21100c7bce79711f3802b679...原创 2018-08-15 20:28:34 · 356 阅读 · 0 评论 -
【机器学习】监督学习的分类:判别/生成模型,概率/非概率模型、参数/非参数模型
转载:https://blog.csdn.net/qq_39521554/article/details/79134274机器学习是一个有着多分支的学科。其中,监督学习是其中发展最为成熟的分支。这不仅是由于在监督学习框架下面有各种各样的学习模型,如逻辑斯特回归、朴素贝叶斯、支持向量机等,更是因为这个框架有着坚实的理论支撑,机器学习中的计算学习理论就是主要为监督学习服务的:这套理论以概率的方式回...转载 2018-08-16 16:35:26 · 3484 阅读 · 0 评论 -
【深度学习】ResNet网络浅析
ResNet网络是基于残差块的网络模型,先介绍下什么是残差块(Residual block):红色圈画的即为一个残差块,与普通的网络相比,区别就是求a[l+2]的时候多加了前面的a[l]这个残差 残差网络:左图为普通的网络,右图为ResNet。理论上随着网络层数的增加,损失会不断下降,实际上却是左图,因为随着网络的增加,优化函数会越来越难优化 为什么深层网络损失会上...原创 2018-08-20 22:06:13 · 1351 阅读 · 0 评论 -
【深度学习】Inception网络浅析
Inception模块:思想:由于一般的卷积网络需要选择使用何种卷积核(3*3或者5*5),而Inception网络可以初始选择的值(如上图初始有4种)然后Inception网络会拼接起所有卷积核的大小,自己学习应该采取哪些过滤器的组合 计算量问题我们观察下5*5的情况,需要乘法次数是28*28*32*5*5*192大约等于1.2亿次,下面通过1*1的卷积核来优化计算量:...原创 2018-08-21 21:07:58 · 1344 阅读 · 1 评论 -
【机器学习】SVM之SMO算法
原创 2018-05-30 17:28:02 · 447 阅读 · 0 评论 -
【机器学习】经典问题总结
1 逻辑回归为什么用sigmod函数,以及对应损失函数为什么选极大似然简答:首先,我们在建模预测 Y|X,并认为 Y|X 服从bernoulli distribution,所以我们只需要知道 P(Y|X);其次我们需要一个线性模型,所以 P(Y|X) = f(wx)。接下来我们就只需要知道 f 是什么就行了。而我们可以通过最大熵原则推出的这个 f,就是sigmoid。为什么选择极大似然...原创 2018-06-13 13:50:40 · 592 阅读 · 0 评论 -
【机器学习】SVM松弛变量
原创 2018-05-24 21:13:36 · 1376 阅读 · 0 评论 -
【机器学习】决策树
参考:https://www.zhihu.com/question/22697086原创 2018-05-10 21:53:29 · 202 阅读 · 0 评论 -
【机器学习】GBDT算法
GBDT算法用于分类问题:https://blog.csdn.net/qq_22238533/article/details/79192579原创 2018-05-17 15:06:01 · 226 阅读 · 0 评论 -
【机器学习】Xgboost算法
原创 2018-05-17 20:50:33 · 275 阅读 · 0 评论 -
【机器学习】矩阵求导与线性回归
参考文章:https://en.wikipedia.org/wiki/Matrix_calculus原创 2018-05-08 16:52:51 · 893 阅读 · 0 评论 -
【深度学习】神经网络前向传播和反向传播例子
原创 2018-05-03 16:24:17 · 671 阅读 · 0 评论 -
【机器学习】PCA原理分析
原创 2018-05-22 10:28:31 · 243 阅读 · 0 评论 -
【机器学习】Adaboost算法
原创 2018-05-15 21:07:58 · 214 阅读 · 0 评论 -
【机器学习】前向分步算法与boosting家族
原创 2018-05-16 17:48:05 · 516 阅读 · 0 评论 -
绝对通俗易懂SVM的理解,大白话
本文目的,站在一个小白的角度,从简单易懂的角度分析下SVM,有不对的地方还请指出,感激不尽主要参考博文:http://f.dataguru.cn/thread-371987-1-1.htmlhttp://blog.csdn.net/dadouyawp/article/details/51059469http://blog.csdn.net/lisi1129/article/deta...原创 2018-03-06 14:13:51 · 13421 阅读 · 7 评论 -
【机器学习】SVM拉格朗日对偶法及其KKT条件
原创 2018-05-29 17:28:29 · 412 阅读 · 0 评论 -
【机器学习】SVM基础推导
原创 2018-05-24 20:51:16 · 405 阅读 · 0 评论