![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Bill Gates's fan
这个作者很懒,什么都没留下…
展开
-
神经网络反向传播浅显推导
转载:https://www.cnblogs.com/codehome/p/9718611.html转载 2020-09-22 15:01:24 · 127 阅读 · 0 评论 -
吴恩达机器学习--中文笔记--第五周
吴恩达机器学习第五个星期1.代价函数与反向传播1.1代价函数参考文献本文是在学习吴恩达老师机器学习课程的基础上结合老师的ppt文献然后加上自身理解编写出来的,有些地方可能有遗漏或错误,欢迎大家批评指正。希望我们一起学习,一起进步!第五个星期1.代价函数与反向传播1.1代价函数首先,我们需要定义一些后面用到的变量:L = 神经网络的层数sl=s_l=sl=第lll层的单元数(不包括偏置单元)K = 输出单元数/类别数神经网络听起来高大上,其实就是逻辑回归的复杂版。值得注意的一点是,我们用原创 2020-08-21 14:54:42 · 221 阅读 · 0 评论 -
吴恩达机器学习--编程作业--第四周
本次编程作业是吴恩达机器学习课程的第四周的编程作业,也是本课程的第三次编程作业。该代码为matlab代码,可以直接运行,亲测提交成绩满分,供大家参考。PS:最近升级了matlab版本至2020a版,亲测win10下成功提交,近几年的matlab版本应该都能提交。源码地址如下(csdn下载积分自动增加,就不上传了。大家去我的Github下载吧):Github:源码(Code)....原创 2020-08-16 17:01:39 · 287 阅读 · 0 评论 -
吴恩达机器学习--中文笔记--第四周
吴恩达机器学习第四个星期1.诱因和动机1.1非线性假设函数本文是在学习吴恩达老师机器学习课程的基础上结合老师的ppt文献然后加上自身理解编写出来的,有些地方可能有遗漏或错误,欢迎大家批评指正。希望我们一起学习,一起进步!第四个星期1.诱因和动机从这里开始进入神经网络的世界,所以首先介绍一下引入的原因作为一个承上启下的铺垫。1.1非线性假设函数当我们面对输入特征超多的情况下,再用前面所学的一般情况下的线性回归或逻辑回归的方法进行处理,还能行的通吗?事实告诉我们,不行了,为啥呢,这里,我们假设有一原创 2020-08-15 14:34:30 · 281 阅读 · 0 评论 -
吴恩达机器学习--编程作业--第三周
本次编程作业是吴恩达机器学习课程的第三周的编程作业,也是本课程的第二次编程作业。该代码为matlab代码,可以直接运行,亲测提交成绩满分,供大家参考。PS:另外在提交时出现问题的同学,可以尝试用octave4.2.1提交,亲测win10下成功提交。Octave下载地址:Octave官网源码地址如下:CSDN:源码(Code).Github:源码(Code)....原创 2020-08-10 14:18:55 · 330 阅读 · 0 评论 -
吴恩达机器学习--中文笔记--第三周
吴恩达机器学习第三个星期1.分类和表示1.1 分类1.2 假设的表示1.3决策边界2.逻辑回归(Logistic Regression)模型2.1代价函数2.2简易的代价函数和梯度下降方法2.3高级优化方案本文是在学习吴恩达老师机器学习课程的基础上结合老师的ppt文献然后加上自身理解编写出来的,有些地方可能有遗漏或错误,欢迎大家批评指正。希望我们一起学习,一起进步!第三个星期1.分类和表示1.1 分类一般来说,分类算法可以应用在以下领域,这里有三个例子:邮件分类:垃圾邮件/正常邮件?在线交易原创 2020-08-09 10:35:44 · 194 阅读 · 0 评论