自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 ex5

linearRegCostFunction.mfunction [J, grad] = linearRegCostFunction(X, y, theta, lambda)%LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear %regression with multiple variables% [J, grad] = LINEARREGCOSTFUNCTION(X, y, theta, lambda)

2021-02-25 22:11:35 75

原创 ex4

这周重点在back propagation(误差逆传播),具体自己看书还是看课吧,对我来说比较难的还是在矩阵维度经常搞混nnCostFunction.m为了避免搞混维度,我后面都标注了以ex4.m里面数据为例的维度供自己参考,在pdf文件中被分为了3个part来指导,part1就是feedforward计算代价函数,part2就是bp算法来推出theta1和theta2的偏导数,part3就是正则化function [J grad] = nnCostFunction(nn_params, ...

2021-02-22 17:52:36 104

原创 ex3.m及ex3_nn.m

ex3是逻辑回归的正则化相关的练习,文档里面多了一个fmincg的函数[X, fX, i] = fmincg(f, X, options, P1, P2, P3, P4, P5)%输入中的f是返回的代价函数及grad矢量%输入中的X是初始化的theta%输入的options是用于可选择的迭代数用options = optimset('GradObj', 'on', 'MaxIter', 要选择的迭代数);来指代%输出中的X是对应的theta值,fx是返回的函数值,i是迭代数%如果只输出一个输出值

2021-02-09 03:38:25 420

原创 ex2——ex_reg.m

在ex2的基础上多写一个costFunctionReg.m就可以运行ex_reg.m里面的reg指正则化(regularization),是用来处理过拟合(overfitting)情况的其实就是在代价函数后再多加一个(λ/2m)∑θ²但是梯度函数里面grad(1)不加λ/m*θ(1)costFunctionReg.mfunction [J, grad] = costFunctionReg(theta, X, y, lambda)%COSTFUNCTIONREG Compute cost and

2021-02-09 01:10:22 227

原创 ex2

ex2就是逻辑回归(Logistic Regression)相关的练习了。sigmoid.msigmoid函数是一个以Y轴为S型曲线,是逻辑回归的假设(hypothesis),当Z>0时就使y为1,Z<0时y为0,输入的参数Z=θ’X,因为维度的关系后面可以直接X*thetafunction g = sigmoid(z)%SIGMOID Compute sigmoid function% g = SIGMOID(z) computes the sigmoid of z.% Yo

2021-02-09 00:23:07 175

原创 ex1Optional (ungraded) exercise

额外作业比起ex1多了一个参数所以变成了多参数的线性回归问题然后还有一个正规方程(normal equation)求解,也不难featureNormalize.m特征标准化 (Feature Normalization),我个人理解就是让X保持在一个比较小的范围内其实就是求出X的平均值u(用mean函数)和x的标准差s(用std函数)最后得出的X_norm=(X-u)/sfunction [X_norm, mu, sigma] = featureNormalize(X)%FEATURENORM

2021-02-08 23:56:09 115

原创 ex1记录

其实这个实验就是蛮简单的线性回归,我就不引用概念什么的啦,就是分享和记录一下其中会有的思路,只要跟着给出的pdf的思路来基本上是可以完成的warmUpExercise.mfunction A = warmUpExercise()%WARMUPEXERCISE Example function in octave% A = WARMUPEXERCISE() is an example function that returns the 5x5 identity matrixA = [];%

2021-02-08 22:23:20 70

原创 嵌入式学习复健

啊,明天开始每天(或周)都一个嵌入式小实验,还有要开一个专栏记录一下自己做吴恩达的Machine Learning的编程作业的时候遇到的问题如果有大佬希望不吝赐教ORZ

2021-02-06 03:56:59 141

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除