机器学习基础
我是一片小树叶
树叶虽小,我心很大
展开
-
SVM支持向量机之了解SVM(一)
转载:https://blog.csdn.net/ajianyingxiaoqinghan/article/details/72897399https://blog.csdn.net/v_july_v/article/details/7624837本文为个人学习所记,详情请移驾转载出处。支持向量机(Support Vector Machine, SVM),通俗来讲,它是一种二类分类模...转载 2018-10-15 21:29:43 · 501 阅读 · 0 评论 -
SVM支持向量机之深入SVM(二)
转载:https://blog.csdn.net/ajianyingxiaoqinghan/article/details/72897399https://blog.csdn.net/v_july_v/article/details/7624837本文为个人学习所记,详情请移驾转载出处。1、从线性可分到线性不可分接着考虑上一篇博客中得到的式(4.3)中的目标函数:max1/∥ω∥...转载 2018-10-19 10:19:39 · 597 阅读 · 0 评论 -
SVM支持向量机之证明SVM (三)
转载:https://blog.csdn.net/ajianyingxiaoqinghan/article/details/72897399https://blog.csdn.net/v_july_v/article/details/7624837本文为个人学习所记,详情请移驾转载出处。1、线性学习器感知机算法感知机算法是1956年提出的,年代久远,依然影响着当今,当然,可以肯定...转载 2018-10-19 18:59:10 · 1045 阅读 · 0 评论 -
GBDT(Gradient Boosting Decision Tree)
转载:https://www.cnblogs.com/peizhe123/p/5086128.htmlGBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力(gene...转载 2019-04-23 20:06:10 · 374 阅读 · 0 评论 -
随机森林 random forest
转载:https://blog.csdn.net/uncle_ll/article/details/82252079参考维基百科:在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。 Leo Breiman和Adele Cutler发展出推论出随机森林的演算法。而"Random Forests"是他们的商标。这个术语是1995年由贝尔实验室的Ti...转载 2019-04-23 20:12:49 · 290 阅读 · 0 评论 -
LSTM (Long Short-Term Memory)
转载:https://www.cnblogs.com/wangduo/p/6773601.html?utm_source=itdadao&utm_medium=referralRecurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都...转载 2019-04-24 17:10:44 · 163 阅读 · 0 评论 -
AutoEncoder 理解
转载:https://blog.csdn.net/roguesir/article/details/77469665前言AutoEncoder是深度学习的另外一个重要内容,并且非常有意思,神经网络通过大量数据集,进行end-to-end的训练,不断提高其准确率,而AutoEncoder通过设计encode和decode过程使输入和输出越来越接近,是一种无监督学习过程。Introduction...转载 2019-04-24 21:15:08 · 320 阅读 · 0 评论 -
Momentum RMSprop Adam 优化算法
转载:https://www.jianshu.com/p/548049548fb9.我们初学的算法一般都是从SGD入门的,参数更新是:它的梯度路线为:但是可以看出它的上下波动很大,收敛的速度很慢。因此根据这些原因,有人提出了Momentum优化算法,这个是基于SGD的,简单理解,就是为了防止波动,取前几次波动的平均值当做这次的W。这个就用到理论的计算梯度的指数加权平均数,引进超参数be...转载 2019-04-24 21:39:52 · 212 阅读 · 0 评论 -
VAE(Variational Autoencoder) 原理
转载:https://www.cnblogs.com/huangshiyu13/p/6209016.html.Kingma, Diederik P., and Max Welling. “Auto-encoding variational bayes.” arXiv preprint arXiv:1312.6114 (2013).论文的理论推导见:https://zhuanlan.zhihu...转载 2019-04-24 22:01:34 · 645 阅读 · 0 评论 -
GAN 生成对抗网络
转载:https://www.cnblogs.com/bonelee/p/9166084.html.Generative Adversarial Network,就是大家耳熟能详的 GAN,由 Ian Goodfellow 首先提出,在这两年更是深度学习中最热门的东西,仿佛什么东西都能由 GAN 做出来。我最近刚入门 GAN,看了些资料,做一些笔记。1.Generation什么是生成(ge...转载 2019-04-25 14:43:20 · 224 阅读 · 0 评论 -
GAN及其改进算法
转载:https://blog.csdn.net/xiaoqianlizhen/article/details/81536537.GANG生成器生成数据,G判别器判别生成器生成的数据是否是真实的数据。也就是生成器拟合真实数据的分布。所以对于不同数据集,分布会不同,也就需要重新训练,非常麻烦。SRGAN有一个生成器和一个判别器,判别器的主体使用 VGG19,生成器是一连串的 Residu...转载 2019-04-25 14:53:26 · 1190 阅读 · 0 评论 -
Xavier初始化
转载:https://blog.csdn.net/victoriaw/article/details/73000632.本文介绍一下深度学习参数初始化问题中耳熟能详的参数初始化方法——Xavier(发音[‘zeɪvɪr])初始化。大家应该感觉到一般的深度学习文章上来就是实验,告诉读者这个实验结果好,然后由实验结果再反向给出一些无从验证的可能对可能不对的原因。而这篇文章虽然整体来看比较简单,但...转载 2019-04-26 20:07:32 · 11097 阅读 · 0 评论