机器学习
ligang_csdn
这个作者很懒,什么都没留下…
展开
-
机器学习--kNN算法
最近看完了Machine Learning in Action对kNN的介绍,应该说是简单易懂的,在这里记录一些要点。 kNN介绍参看WikikNN的特点简单有监督 分类算法无须训练数据需要归一化k最好取奇数,避免平等投票如果样本和特征多的话,计算量大(导致预测速度慢)数值和标称都可以用距离函数欧氏距离(Euclidean distance) 曼哈顿距离(Manhattan原创 2016-12-21 13:19:52 · 506 阅读 · 0 评论 -
神经网络的一些笔记
为什么ReLU比较好?(https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-history-training/) 这篇文章有一个解释:Sigmod函数在x比较大的时候,梯度很小,所以收敛很慢,而ReLU在x>0时梯度恒定为1,收敛速度比Sigmod快,所以现在梯度比较大的激活函数比较受欢迎。原创 2017-01-05 20:44:32 · 490 阅读 · 0 评论 -
机器学习资料收集
网上的资料层出不穷,来不及看,先记录一下觉得值得看的:机器之心深度研学社每周干货2016年第46周- abc原创 2017-01-05 20:19:57 · 435 阅读 · 0 评论 -
(转载--讲CNN推导比较详细的文章)卷积神经网络全面解析 by Moonshile
(原文:http://www.moonshile.com/post/juan-ji-shen-jing-wang-luo-quan-mian-jie-xi)卷积神经网络全面解析Published on 2015-09-16卷积神经网络(CNN)概述从多层感知器(MLP)说起感知器多层感知器输入层-隐层隐层-输出层Back Pr转载 2016-12-27 14:25:23 · 3311 阅读 · 0 评论 -
(转载)积神经网络
(最近看到这篇文章,对CNN的概念讲得很形象,忍不住转载一下)卷积神经网络转载请注明:http://blog.csdn.NET/stdcoutzyx/article/details/41596663自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、c转载 2016-12-26 22:06:14 · 589 阅读 · 0 评论 -
(转载)【机器学习算法系列之二】浅析Logistic Regression
(原文:https://chenrudan.github.io/blog/2016/01/09/logisticregression.html)发表于 2016-01-09 | 分类于 project experience | 9条评论 | 872本文是受rickjin老师的启发,谈谈关于logistic regression的一些内容,虽然已经有珠玉在前,但还是做一转载 2016-12-23 15:17:23 · 2045 阅读 · 0 评论 -
(转载)机器学习--Logistic回归-我看你像谁
(最近研究Logistic回归的时候,看到网上有两篇介绍文章写得简单易懂,特地转载一下,原文是上下两篇, 网址太长,这里就不贴了,抱歉)Datartisan数据工匠 2016-09-21 10:15引子:依旧是一个“烧烤”的天气,我在的城市厦门,已经达到了37度的高温了,不过也好,只有这样的暑假,这样的天气才有时间和心思,静下心来思考一些东西。转载 2016-12-23 09:19:19 · 592 阅读 · 0 评论 -
机器学习--Logistic回归计算过程的推导
(很多讲逻辑回归的文章都没有给出详细的推导,只是列出最后的计算公式,今天在网上看到一篇解释得非常详细的文章,赶紧转载一下:【机器学习笔记1】Logistic回归总结(http://blog.csdn.net/dongtingzhizi/article/details/15962797) 作者说"未经允许,不得转载",我这里先冒犯了,如果觉得不合适,请告知。) Logis转载 2016-12-23 14:12:42 · 64042 阅读 · 18 评论 -
深度学习在2016年都有哪些主要研究进展?(附开源平台地址)| 盘点
雷锋网 2016-12-22 15:22在过去的几年时间里,深度学习(Deep Learning)一直都是机器学习社区的核心主题, 2016年也不例外。研究人员长久以来亟待解决的一个主要挑战就是无监督学习(Unsupervised Learning)。Tryolabs 认为,2016 年对于这一领域来说是取得伟大突破的一年,主要原因是出现了大量的基于生成模型(Generativ转载 2016-12-23 09:02:38 · 692 阅读 · 0 评论 -
使用TensorFlow编写识别数字的CNN训练程序详解
文本代码基于TensorFlow 0.12.0版本,使用tf.contrib.learn封装的方法来实现CNN。 CNN的结构从网上借用一张图片来表示一下,是一个有2层hidden layer的CNN。MNIST数据的获取以往我们获取MINIST的方式是: from tensorflow.examples.tutorials.mnist import input_datamnist = i原创 2017-01-01 17:09:06 · 28800 阅读 · 4 评论 -
(转载) [机器学习] ML重要概念:梯度(Gradient)与梯度下降法(Gradient Descent)
版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]引言 机器学习栏目记录我在学习Machine Learning过程的一些心得笔记,涵盖线性回归、逻辑回归、Softmax回归、神经网络和SVM等等,主要学习资料来自网上的免费课程和一些经典书籍,免费课程例如Standford Andrew Ng老师在Coursera的教程以及UF转载 2016-12-22 13:59:06 · 733 阅读 · 0 评论 -
TensorFlow 0.12 Estimators Models Layers学习笔记
TensorFlow在tensorflow.contrib包中有很多封装好的工具,最近在学习中用到了一些模块,在这里做一些笔记。Estimators位于tensorflow.contrib.learn 引用 深度解析TensorFlow组件Estimator:构建自定义Estimator 里面的观点,其作用是:是TensorFlow训练和评估模块的抽象和基类。它利用graph_actions.p原创 2016-12-29 21:50:22 · 5443 阅读 · 0 评论