![](https://img-blog.csdnimg.cn/20201014180756724.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Machine Learning&Deep Learning
文章平均质量分 58
greenapple_shan
这个作者很懒,什么都没留下…
展开
-
词向量和语言模型
Deep Learning in NLP (一)词向量和语言模型Posted on 2013 年 7 月 29 日 这篇博客是我看了半年的论文后,自己对 Deep Learning 在 NLP 领域中应用的理解和总结,在此分享。其中必然有局限性,欢迎各种交流,随便拍。 Deep Learning 算法已经在图像和音频领域取得了惊人的成果,但是在 NLP 领域中尚转载 2015-01-03 13:54:27 · 1345 阅读 · 0 评论 -
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size
机器学习算法中如何选取超参数:学习速率、正则项系数、minibatch size标签: 超参数机器学习2015-03-14 23:49 8917人阅读 评论(2) 收藏 举报 分类:Machine Learning(30) 版权声明:本文为博主原创文章,未经博主允许不得转载。目录(?)[+]本文是《转载 2016-11-19 17:16:48 · 661 阅读 · 0 评论 -
如何将数据转换libsvm格式文件
有三种工具可用1.网上有一个xls文FormatDataLibsvm.xls具有宏命令,可以利用其中的宏命令来实现。对于属性数据只有一二百的,这种工具简单方便。2.对于一两千的就需要借助代码之类的工具了。其实仔细看cjlin的libsvm网站http://www.csie.ntu.edu.tw/~cjlin/libsvm/,从网站的Libsvm FAQ中有提到的格式转换的方法转载 2016-10-27 14:19:41 · 3640 阅读 · 1 评论 -
说说高斯过程回归
作者介绍:新浪微博ID@妖僧老冯,9月将赴南京大学(直博生),方向是机器学习与数据挖掘编者:小便和作者打过几次交道,一直以为是他是已“修成正果”的某某博士,便“毕恭毕敬”地去邀请他写篇牛文。细聊之后才得知小伙子原来是90后,9月份才博士入学。这篇文章对GP进行了深度科普,数学公式是有一些的,但耐心读读,都不是问题的。高斯过程是机器学习领域一个基础的方法,同时又和其他方法有千丝万缕的联系,值转载 2016-09-01 17:38:39 · 23571 阅读 · 11 评论 -
机器学习模型评价(Evaluating Machine Learning Models)-主要概念与陷阱
文章地址:http://blog.csdn.net/heyongluoyao8/article/details/49408319#机器学习模型评价(Evaluating Machine Learning Models)-主要概念与陷阱前言 本文主要解释一些关于机器学习模型评价的主要概念,与评价中可能会遇到的一些陷阱。如训练集-验证集二划分校验(Hold-out valid转载 2016-06-30 14:55:40 · 1474 阅读 · 0 评论 -
Learn Lua in 15 Minutes
Learn Lua in 15 Minuteshttp://tylerneylon.com/a/learn-lua/原创 2016-05-06 16:21:00 · 379 阅读 · 0 评论 -
2015.08.17 Ubuntu 14.04+cuda 7.0+caffe安装配置
2015.10.23更新:修改了一些地方,身边很多人按这个流程安装,完全可以安装折腾了两个星期的caffe,windows和ubuntu下都安装成功了。其中windows的安装配置参考官网推荐的那个blog,后来发现那个版本的caffe太老,和现在的不兼容,一些关键字都不一样,果断回到Linux下。这里记录一下我的安装配置流程。电脑配置:ubuntu 14.04 64bit转载 2016-03-28 16:34:37 · 877 阅读 · 0 评论 -
Understanding LSTM Networks
Recurrent Neural NetworksHumans don’t start their thinking from scratch every second. As you read this essay, you understand each word based on your understanding of previous words. You don’t thro转载 2015-12-01 21:16:48 · 861 阅读 · 0 评论 -
Calculus on Computational Graphs: Backpropagation
IntroductionBackpropagation is the key algorithm that makes training deep models computationally tractable. For modern neural networks, it can make training with gradient descent as much as ten mi转载 2015-12-01 21:15:56 · 648 阅读 · 0 评论 -
Caffe In Practice
Caffe-------Deep Learning in Practicehttp://blog.csdn.net/abcjennifer/article/details/46424949转载 2015-12-02 15:46:18 · 460 阅读 · 0 评论 -
卷积神经网络
卷积神经网络转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/41596663自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人转载 2015-11-30 16:34:10 · 579 阅读 · 0 评论 -
BP算法浅谈(Error Back-propagation)
BP算法的例子不错http://blog.csdn.net/pennyliang/article/details/6695355转载 2015-11-29 16:31:59 · 672 阅读 · 0 评论 -
线性回归与梯度下降法
前言最近在看斯坦福的《机器学习》的公开课,这个课程是2009年的,有点老了,不过讲的还是很好的,廓清了一些我以前关于机器学习懵懂的地方。我的一位老师曾经说过:什么叫理解?理解就是你能把同一个事情用自己的语言表达出来,并且能让别人听得懂。本着这样的原则,同时也为了证明自己是”理解”的,于是决定打算在学习《机器学习》公开课的时候,写一些系列文章类巩固学到的东西。机器学习转载 2015-11-25 14:28:14 · 1085 阅读 · 0 评论 -
Cosine similarity
DefinitionThe cosine of two vectors can be derived by using the Euclidean dot product formula:Given two vectors of attributes, A and B, the cosine similarity, cos(θ), is represented us原创 2015-01-23 10:49:15 · 2918 阅读 · 0 评论 -
cross entropy
出处:https://liusida.github.io/2016/11/25/cross-entropy/Cross Entropy 的通俗意义25 Nov 2016cross_entropy 公式如下:CrossEntropy=−∑i(Li⋅log(Si))CrossEntropy=−∑i(Li⋅log(Si))它描述的是可能性 S 到 L转载 2017-07-19 16:31:50 · 1052 阅读 · 0 评论