Machine Learning
AnyoneIsMe
这个作者很懒,什么都没留下…
展开
-
svd奇异值分解
转载自SVD分解SVD分解是LSA的数学基础,本文是我的LSA学习笔记的一部分,之所以单独拿出来,是因为SVD可以说是LSA的基础,要理解LSA必须了解SVD,因此将LSA笔记的SVD一节单独作为一篇文章。本节讨论SVD分解相关数学问题,一个分为3个部分,第一部分讨论线性代数中的一些基础知识,第二部分讨论SVD矩阵分解,第三部分讨论低阶近似。本节讨论的矩阵都是实数矩阵。基础转载 2014-09-06 13:27:29 · 595 阅读 · 0 评论 -
em算法笔记
本论文使用一个具体的实例讲解了EM算法的整体流程,非常详细。这里跟大家分享下。原作者:ChengXiang Zhai翻译: 雨石由于csdn博客上写公式不方便,故将翻译好的文档截图传到博客上,想下载翻译的整篇pdf的同学请 猛击这里 。转载 2014-09-07 11:18:58 · 539 阅读 · 0 评论 -
hmm
史上最详细最容易理解的HMM文章分类: 机器学习2012-10-15 13:52 4719人阅读 评论(3) 收藏 举报自然语言处理算法algorithmlibraryvb脚本目录(?)[-]wiki上一个比较好的HMM例子HMM学习最佳范例与崔晓源的博客几种不同程序语言的HMM版本HMM学习最佳范例一介绍HMM学习最佳范例六维特比算法HMM学习最佳转载 2014-09-08 14:18:37 · 1333 阅读 · 0 评论 -
核方法(kernel method)的主要思想
本文对核方法(kernel method)进行简要的介绍。核方法的主要思想是基于这样一个假设:“在低维空间中不能线性分割的点集,通过转化为高维空间中的点集时,很有可能变为线性可分的” ,例如下图 左图的两类数据要想在一维空间上线性分开是不可能的,然而通过F(x)=(x-a)(x-b)把一维空间上的点转化为右图上的二维空间上,就是可以线性分割的了。然而,转载 2014-09-16 12:57:19 · 690 阅读 · 0 评论 -
MachineLearning-----感知器学习算法
Machine Learning---感知器学习算法引言这里开始介绍神经网络方面的知识(Neural Networks)。首先我们会介绍几个监督式学习的算法,随后便是非监督式的学习。一、感知器学习算法基本介绍1.神经网络就像进化计算,神经网络又是一个类似的概念。神经网络由一个或者多个神经元组成。而一个神经元包括输入、输出和“内部处理器”。神经元从转载 2014-10-29 19:05:03 · 544 阅读 · 0 评论 -
Matlab神经网络工具箱中的Train和Adapt函数区别
转至: http://www.matlabsky.com/thread-4084-1-1.html【转】 Matlab神经网络工具箱中的Train和Adapt函数区别先看看Matlab官方的解释,请如下操作:在Matlab的Command Window中输入doc adapt或者doc train,将滚动条拖到最后有一个Algor转载 2015-01-25 17:05:36 · 3003 阅读 · 1 评论 -
matlab构建神经网络
http://www.ilovematlab.cn/thread-42747-1-1.htmlclose allclearclc%% BP建模%原始数据归一化 m_data=[8.20 6.80 6.00 6.20 5.60 6.20 4.80 0.60 7.20 7.00 7.60 3.80 0.80 14.00 0.1331 2.4转载 2015-01-25 17:07:28 · 1502 阅读 · 1 评论 -
关于 theano.scan函数一些简单的应用只包括fn ,sequences 和outputs_info
关于 theano.scan函数一些简单的应用只包括fn ,sequences 和outputs_info 。自己通过实验总结的不一定对 后期更正……1) 只有一个序列 和 只有一个循环中更新的数__author__ ='Administrator'import theanoimport theano.tensoras TA = T.vector("A")B =原创 2015-03-11 19:19:58 · 1499 阅读 · 1 评论