- 博客(10)
- 资源 (10)
- 收藏
- 关注
原创 机器学习笔记09:支持向量机(二)-核函数(Kernels)
再吐槽一下CSDN的markdown编辑器,真的是烂,多少年了连个博客编辑器都做不好,数学公式一长,就卡的一笔。希望CSDN能出个离线的博客。核函数是 SVM 的最重要的部分,我们可以通过设置不同的核函数来创造出非常复杂的、非线性的支持向量机。1.核(Kernel)首先来看看什么是核函数。如图所示,假设有一个样本 xx 有两个特征 x1,x2x_1,x_2,我们可以根据与地标(la
2016-05-28 00:29:45 4582
原创 数值分析之直接法解线性方程组:高斯消去法、高斯乔丹消去法
高斯消去法(Gauss消去法)和高斯-乔丹消去法(Gauss-Jordan消去法)都很简单。代码如下:高斯消去法:function [x] = Gaussian_elim(a, b)% a is a coefficient matrix, b is a column vector storing values of a*x,% and here the return value
2016-05-26 21:45:12 3307 1
原创 机器学习笔记08:支持向量机(一)(SVM)
在网上找了很多支持向量机的资料看都是迷迷糊糊没完全搞懂,可能是我理解能力比较差,最后还是 Coursera 上吴大神的 Machine Learning 课程把我一下子讲懂了。由于支持向量机是由逻辑回归(Logistic Regression)衍生而来的,所以学习 SVM 之前务必完全理解逻辑回归。另外,文章中有些关于逻辑回归的东西(例如符号标记、函数的具体由来及其的一些性质)还请参考之前的两篇文章
2016-05-25 19:40:35 3260
原创 Coursera机器学习 week6 编程作业代码
这是Coursera上 Week4 的 “神经网络的表示” 的编程作业代码。经过测验,全部通过。下面是 linearRegCostFunction.m 的代码:function [J, grad] = linearRegCostFunction(X, y, theta, lambda)%LINEARREGCOSTFUNCTION Compute cost and gradient for
2016-05-21 16:29:12 5726
原创 Coursera机器学习 week2 多变量线性回归 编程作业代码
这是Coursera上 Week2 的 “多变量线性回归” 的编程作业代码。经过测验,全部通过。包括以下八个文件:% warmUpExercise.m% plotData.m% gradientDescent.m% computeCost.m% gradientDescentMulti.m% computeCostMulti.m%
2016-05-21 16:22:12 7721 7
原创 Coursera机器学习 week3 逻辑回归 编程作业代码
这是Coursera上 Week3 的 “逻辑回归” 的编程作业代码。经过测验,全部通过。下面是 sigmoid.msigmoid.m 的代码:function g = sigmoid(z)%SIGMOID Compute sigmoid functoon% J = SIGMOID(z) computes the sigmoid of z.% You need to return th
2016-05-21 16:05:47 6829
原创 Coursera机器学习 week4 神经网络的表示 编程作业代码
这是Coursera上 Week4 的 “神经网络的表示” 的编程作业代码。经过测验,全部通过。下面是 lrCostFunction.mlrCostFunction.m 的代码:% lrCostFunction.mfunction [J, grad] = lrCostFunction(theta, X, y, lambda)%LRCOSTFUNCTION Compute cost and grad
2016-05-21 13:46:16 8986 3
原创 Coursera机器学习 week5 神经网络的学习 编程作业代码
这是Coursera上Week6的神经网络的学习部分的编程作业代码。经过测验,全部通过。下面是 sigmoidGradient.msigmoidGradient.m 的代码:% sigmoidGradient.mfunction g = sigmoidGradient(z)%SIGMOIDGRADIENT returns the gradient of the sigmoid function%
2016-05-21 09:39:00 8317 5
原创 机器学习笔记07:神经网络的反向传播(Backpropagation)
——–本文中除了在图片下方标记了出处的图片,均为原创,转载请注明出处——–上一篇文章《机器学习笔记06:神经网络的表示(Neural Networks-Representation)》 大概描述了神经网络的起源、结构、表示、工作方法及一些应用。今天这篇文章对应 Coursera 上的Stanford机器学习课程的week05。主要的内容是神经网络的学习,包括梯度下降、反向传播等。1.误差函数(Cos
2016-05-20 15:10:49 12112 6
原创 机器学习笔记06:神经网络的表示(Neural Networks-Representation)
神经网络(Neural Networks)其实是一个很古老的想法,但是提出来之后,沉寂了很长一段时间。而现在,神经网络是许多机器学习问题的首选算法。文章内的所有图片均属于Stanford机器学习课程,转载请注明出处一、神经网络的表示(The Representation for Neural Networks)1、运用神经网络的动机(Motivations)非线性的假设
2016-05-08 12:31:08 5833 2
2014Computer Organization and Design 5th
2016-02-24
Pattern Recognition and Machine Learning.pdf 模式识别与机器学习
2015-12-16
Introduction To Algorithms Third Edition.pdf
2015-11-29
Algorithms for Image Processing and Computer Vision.pdf
2015-11-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人