![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
hugh___
这个作者很懒,什么都没留下…
展开
-
Coursera-机器学习(吴恩达)第二周-编程作业
已经学习吴恩达的机器学习四周,但对编程还是不够熟练,所以想重新总结一下自己的编程作业,加强巩固。在写代码之前一定要搞清楚X、y、theta是几乘几的矩阵。一元线性回归,步骤:1、设置代价函数2、梯度下降,对代价函数求θ的偏导,更新θ的值,迭代更新。% 代价函数function J = computeCost(X, y, theta)% Initialize some u...原创 2018-08-15 18:06:41 · 3569 阅读 · 0 评论 -
Coursera-机器学习(吴恩达)第三周-编程作业
1、逻辑回归逻辑回归与线性回归的主要区别在于假设函数,逻辑回归中的假设函数: hθ(x) = g(θ'x)=sgmoid(θ’x)1)sigmoid 代码实现% sigmoid 代码实现function g = sigmoid(z)%S...原创 2018-08-16 11:11:08 · 5878 阅读 · 5 评论 -
Coursera-机器学习(吴恩达)第四周-编程作业
1、Multi-class Classification如果将这个题转换为神经网络,相当于这个模型只有两层:输入层和输出层,输入层由400个神经元(像素)组成,输出层由10个神经元组成,输出层的神经元编号为1到10,分别表示1到9和0(10表示0),每个神经元输出结果是预测输入图像是该神经元编号的概率,选取概率最大的神经元编号作为预测的数字。1.3 Vectorizing Logistic...原创 2018-08-17 14:59:46 · 5154 阅读 · 1 评论