自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 Stanford 机器学习 Week5 作业: Neural Networks: Learning

randInitializeWeightepsilon_init = 0.12;W = rand(L_out, 1 + L_in) * 2 * epsilon_init - epsilon_init;sigmoidGradientg = sigmoid(z) .* (1 - sigmoid(z));nnCostFunctionTheta1 = reshape(nn_params(1:hidden_

2016-02-29 16:11:52 1527

原创 Stanford 机器学习笔记 Week5 Neural Networks: Learning

Cost Function and BackpropagationCost Function在求取神经网络权重矩阵时,第一步也是要先写出cost function。它的cost function就是带rugularization 的logistic regression的加强版,因为在多种类分类中每个数据不再只有一个输出y(i),而是有K个0/1输出组成一个向量(K为种类数),因此神经网络的cost

2016-02-25 11:24:17 1649

原创 《机器学习实战》实践心得 kNN篇

生成数据:首先建立一个模块KNN.py,写一个生成数据的函数from numpy import *import operatordef createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group, labels在pyt

2016-02-23 16:26:23 2363

原创 Stanford 机器学习 Week4 作业 Multi-class Classification and Neural Networks

Vectorizing regularized logistic regressionm = length(y); % number of training examplesJ = 0;grad = zeros(size(theta));J = sum( -y .* log(sigmoid(X*theta)) - (1 - y) .* log(1 - sigmoid(X*theta))) /

2016-02-22 14:20:48 2661 1

原创 Stanford 机器学习笔记 Week4 Neural Networks: Representation

MotivationsNon-linear Hypotheses线性回归不能解决的问题:在分类问题中,分类边界实际上是一个由各个参数构成的多项式。当参数很少时(比如只有x1,x2),多项式还可以构造出来,但是当参数很多(假设有x1….x100),构造出的多项式的项数将非常多。对于n个参数的2次多项式,项数大约是n^2/2个。一个问题:给定一幅图,如何确定是不是一辆汽车?一种方法是把图片的每个像素点作

2016-02-21 15:26:21 873

原创 Stanford 机器学习笔记 Week3 Regularization

RegularizationThe Problem of Overfitting拟合效果不好有两种情况:欠拟合(Underfitting),指的是预测值和training set匹配程度较差。过拟合(Overfitting),指的是拟合曲线过度追求吻合training set,可能被一些噪音干扰,偏离实际情况。当数据的参数过多时容易发生这种情况。解决过拟合有两种方法:1.减少参数数量,可以人为选择使

2016-02-15 19:27:31 974

原创 Stanford 机器学习笔记 Week3 Classification and Representation

Classification and RepresentationClassification分类问题的预测返回值为离散量。以0,1两种返回值为例。线性回归算法不适用于解决分类问题,因为画成图像后,数据点的y值只有0,1两种,因此边界上的一个单独的点会对回归直线造成很大影响。Hypothesis Representation相对于线性回归模型会出现预测值>1和<0的情况,逻辑回归(logistic

2016-02-15 19:17:17 898

原创 Stanford 机器学习 Week3 作业 Logistic Regression

Visualizing the datapos = find(y==1); neg = find(y == 0);plot(X(pos, 1), X(pos, 2), 'k+','LineWidth', 2, ... 'MarkerSize', 7);plot(X(neg, 1), X(neg, 2), 'ko', 'MarkerFaceColor', 'y', ... 'M

2016-02-14 20:40:34 1526

原创 Stanford 机器学习 Week2 作业: Linear Regression

Plotting the Datadata = load('ex1data1.txt'); % read comma separated dataX = data(:, 1); y = data(:, 2);m = length(y); % number of training examplesplot(x, y, 'rx', 'Mar

2016-02-08 22:37:09 1441

原创 Stanford 机器学习笔记 Week2

一.多变量线性回归1.1 n个变量的线性回归估计函数为 h(X)=k0+k1x1+k2x2+….+knxn 每个训练样本的n个变量构成一个n维向量X,为方便,在第一个位置添加一个x0=1,(与常数项k0相乘),这样就构成了一个n+1维向量。 同时k0~kn这个n+1个参数构成了另一个n+1维向量K。 那么估计函数就等于 K的转置*X1.2 多变量线性回归中,对于不同的参数向量K,同样有一个

2016-02-08 20:39:34 1094

原创 Octave 基础操作及解决安装绘图工具gnuplot时出现unknown terminal错误

查询关键字信息 help 关键字修改提示符 PS1=(’修改内容’)显示变量的值 disp(var)格式化输出 disp(sprintf(‘任意内容 %0.2f’, var))改变默认数据类型 format long\short生成矩阵 A = [1 2; 3 4; 5 6] %生成一个3*2的矩阵生成均匀数列 v = 起始值:步长:结束值 v = 1:

2016-02-07 15:44:11 2935

原创 python 模块(module)基础讲解

1.使用import命令引入模块,查询import的默认查询路径使用命令:import syssys.path添加搜索路径使用sys.path.append(路径)2.导入模块时最好按标准库模块,第三方模块,自定义模块的顺序,并在之间用空格分开3.加载模块时,被导入的模块的顶层代码会直接被执行,包括设定全局变量和类和函数的声明。4.不管一个模块被import几次,只被加载一次。5.使用例如from

2016-02-01 11:32:14 2006

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除