吴恩达机器学习
Beeemo
这个作者很懒,什么都没留下…
展开
-
【吴恩达机器学习 - 5】揭秘学习曲线:偏差和方差与代价函数之间的相互关系(课后练习第五题-ex5)
目录1. 回顾线性回归的正则化1.1 代价函数1.2 梯度2. 偏差与方差2.1 训练集数量对“代价”的影响3. 多项式回归3.1 多项式特征的生成3.2 lambda对“代价”的影响照旧,本练习的相关资料链接将会扔到评论区,大家自取1. 回顾线性回归的正则化练习的第一个部分还是线性回归的相关计算公式,可以好好地回顾一下(其实只是为接下来的内容服务而已),所以这个部分就不过多介绍了,还不太熟练的可以看看我前几篇写的练习1.1 代价函数把如下代码扔进linearRegCostFunction.m文件原创 2020-12-07 20:06:10 · 360 阅读 · 2 评论 -
【吴恩达机器学习 - 4】利用BP神经网络实现手写字体识别问题(课后练习第四题ex4)
目录1. 前向传播1.1 代价函数1.2 正则化代价函数2. 反向传播2.1 sigmoid函数求导2.2 权值更新照旧,本练习的相关资料链接将会扔到评论区,大家自取1. 前向传播1.1 代价函数本节练习的第一个任务,就是写出该神经网络的代价函数,实际上,该代价函数跟我们之前所学习的逻辑回归的代价函数几乎一样,下面来对比一下究竟有什么异同逻辑回归神经网络这样一对比就很清楚了,显然不同之处是y,也就是输出值,根本原因在于在逻辑回归中我们仅有一个输出,而神经网络结构的最终输出是有多个的,需原创 2020-11-25 21:44:38 · 926 阅读 · 3 评论 -
【吴恩达机器学习 - 3】利用fmincg函数与正则化实现多元分类问题及神经网络初体验(课后练习第三题ex3)
目录1. 多元分类1.1 代价函数1.2 求最优参数1.3 分类预测2. 神经网络照旧,本练习的相关资料链接将会扔到评论区,大家自取1. 多元分类在上一节练习中已经完成了逻辑回归,也就是分类问题,实际上只是完成了二分类问题,而本节练习将会使用逻辑回归完成手写字体识别(多元分类)问题原创 2020-11-15 17:29:25 · 1755 阅读 · 3 评论 -
【吴恩达机器学习 - 2】利用fminunc函数与正则化实现逻辑回归(课后练习第二题ex2)
目录1. 逻辑回归1.1 绘制数据1.2 sigmoid函数1.3 代价函数与偏导项1.4 准确度估计2. 正则化的逻辑回归2.1 代价函数2.2 lambda的选择照旧,本练习的相关资料链接将会扔到评论区,大家自取原创 2020-11-15 15:13:34 · 391 阅读 · 1 评论 -
【吴恩达机器学习 - 1】利用梯度下降算法与正规方程实现线性回归及多元线性回归(课程练习第一题ex1)
目录1. 热身2. 线性回归2.1 绘制数据图2.2 完善梯度下降算法2.3 可视化代价函数3. 多元线性回归3.1 梯度下降法(Gradient descent)3.1.1 特征缩放(Feature normalization)3.1.2 梯度下降3.2 正规方程(Normal equation)前言先来几句废话,相信大部分都是在B站看的吴恩达的机器学习视频,寻思着做做练习才有缘在这个页面见面,建议到吴恩达的课程网站https://www.coursera.org/,注册个账号,那就可以直接利用里面的原创 2020-10-27 16:53:16 · 3380 阅读 · 2 评论