find函数matlab_吴恩达机器学习之MatLab踩坑版

5b1c7c0b48e4bc1cde8a034ec2e6951b.png

matlab中m文件编辑器不同部分有不同的颜色,如下图,采用的是cell模式:

用两个%%加空格,表示一个新的Cell段。

下图“%% Mach...”,直到出现下一个“%% ....”,是一个Cell。

有了代码Cell后,可以只运行M文件中某个Cell的代码,而不需要运行整个M文件,便于调试用的。

6328be8680e79ecc0f79d41d028dc0b6.png

函数:repmat():转换向量或者矩阵形式

格式:

repmat (A, m)

repmat (A, m, n)

repmat (A, m, n, p …)

repmat (A, [m n])

repmat (A, [m n p …])

函数:numel() 返回向量/矩阵中元素的个数

logistic regression的代价函数

7f0dcaa243231f47af4a24904fb9c8ab.png

a4e8a5663795f074a3ab9ab28cb76467.png

正则化的代价函数(Regularization cost function)

Regularized Linear Regression

1. Gradient descend

repeat {

}

整理可得:

2. Normal function

Regularized logistic regression

cost function:

matlab中函数

size(X,1),返回矩阵X的行数;

size(X,2),返回矩阵X的列数;

find(),

matlab库中的非线性优化-----optimset

options = optimset('param1',value1,'param2',value2,...) %设置所有参数及其值,未设置的为默认值

例:

options=optimset('GradObj', 'on', 'MaxIter', '100');

initialTheta = zeros(2, 1);

[optTheta, functionVal, exitFlah]...

= fminunc(@costFunction, initialTheta, options);

optimset函数:‘GradObj’指用户自定义的目标函数梯度;‘MaxIter’指最大迭代次数,‘100’也就是最大迭代次数,这一项只能为整数。

fminunc函数:有三个输入,第一个输入为costfunction函数的句柄,第二个输入为设置的初始theta值,第三个输入为optimset函数的返回值

optTheta为经函数计算得出的theta值,也就是损失函数最小时theta的取值

神经网络的学习:

代价函数:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值