![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习笔记
Cake_C
小呆子一枚,学吧学吧。 有什么疑问可能不及时看csdn,可以投送opelac@qq.com。有空就会回复!我自己不会的话也可以一起探讨~
展开
-
机器学习笔记(4)--神经网络前向传播 --基于吴恩达机器学习配套笔记
代价函数理解:神经网络本质也是分类算法,但是比原来的逻辑回归复杂一点点。所以其代价函数也只需要对逻辑回归的代价函数进行亿点点修改:变成:因为很长一下子接受不了,咱也是在草稿纸上演画了一会才懂:前面一大段求和看另外的图:这样一来,对神经网络的代价函数应该有了直观的印象和比较深刻的理解了。下面我们过一部分代码,看看代码是怎么对这一堆概念进行处理的:代价函数代码:...原创 2020-12-09 14:21:59 · 234 阅读 · 0 评论 -
机器学习笔记(3)--正则化 --基于吴恩达机器学习配套笔记
正常情况下的逻辑回归与线性回归的结果表示而通过特征映射将原来低维的数据拓展到高维后原直线的模型就能适应曲线模型,但在不做任何处理+训练数据较少的情况下曲线可能过拟合。直观形象上就是曲线歪歪扭扭,强行符合训练集,而一般应用到测试集以及实际使用中效果奇差:...原创 2020-11-07 20:26:01 · 153 阅读 · 0 评论 -
机器学习笔记(2)--逻辑回归 --基于吴恩达机器学习配套笔记
本来想先把tensorflow架构下的线性回归研究一下的,发现不懂的还是太多,先放一放。等之后用的多了再回头理解理解。前置知识:逻辑回归的基本模型:(比线性回归稍微复杂一点,一句话说不清,慢慢顺,但主要还是用假设函数在优化代价函数的过程中拟合数据集以适应通用的情况)逻辑回归(logistic_regression)主要用于分类数据集,其输出值域是一个离散型的结构。这里先研究二元分类(01分类)其中用到这样一个sigmoid 函数来作为假设函数的结构,其原因是:对于分类算法数据集中的数据,其特征值原创 2020-11-03 19:34:01 · 169 阅读 · 0 评论 -
机器学习笔记(1)--线性回归 --基于吴恩达机器学习配套笔记
开一个大新坑,在吴恩达机器学习视频课+配套学习笔记的指导下探索一波人工智能的新领域视频:https://www.bilibili.com/video/BV164411b7dx笔记:https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes在博客里写下看完视频仔细阅读对应的笔记章节的python代码分析每一步进行框架性的学习。前置知识:在阅读笔记的第一章linear regreesion(线性回归) 前,已经基本了解的内容:线性回归的基本模型:原创 2020-10-28 08:03:31 · 277 阅读 · 0 评论