![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
吴恩达机器学习
无名小卒一枚
因为你们都太优秀了,这就是我持续努力的动力
展开
-
神经网络
引入非线性假设的必要性神经网络的背景知识-如何表示神经网络?对假设函数更进一步理解,以及一种向量化的计算方法,前向传播神经网络具体例子–逻辑运算—利用神经网络解决多元分类问题实为一对多方法的扩展,以计算机视觉为例,有多少个类别便建立多少个识别器...原创 2019-10-23 15:25:57 · 158 阅读 · 0 评论 -
正则化法解决线性回归和Logistic回归的过拟合问题
- 线性回归中的过拟合问题- Logistic回归中的过拟合问题- 如何诊断和调试过拟合问题,如何专门用工具来识别过拟合和欠拟合:- 正则化是如何运行的?写出相应的代价函数1、正则化背后的思想2、线性回归的正则化使用梯度下降法、正规方程最优化含有正则目标的代价函数并且正则化考虑到了线性回归最优化代价函数采用正规方程法中的不可逆问题将正则化应用到Logistic回归...原创 2019-10-20 19:20:17 · 554 阅读 · 0 评论 -
分类算法:Logistic 回归(二分类,多分类)
关于分类问题,结果常有两个,用{0,1}表示。0表示负类,常表示没有某样东西;1表示正类,表示具有我们要寻找的东西。将线性回归应用到分类问题,运气好的话,可能也会运行的很好,但这取决于数据集。所以将线性回归应用到分类问题并不是一个好的方法。并且使用线性回归其输出结果值可能会远远大于1或者远远小于0.所以并不推荐使用该法Logistc回归,有个特点 其目标函数值在0-1之间,视为是一种分类算...原创 2019-10-20 18:58:06 · 3296 阅读 · 0 评论 -
Octave学习
起初只看了一遍视频,没跟着敲。。。然后全忘记了!再干!不等于 是 ~=and 是 &&,or 是 || ,异或运算时 xor(1,0)平方操作 2^6%表示注释a=3 按回车会打印。a=3; 则不会打印 因为;抑制了输出输出语句 disp()>>disp(sprintf('2 decimals: %0.2f',3.1416)) ...原创 2019-10-17 21:27:41 · 269 阅读 · 1 评论 -
正规方程(用于求使代价函数最小化的Ø)
对于某些线性回归问题,正规方程的方法可以给我们更好的方法去求得参数Ø。即是除梯度下降方法之外的另外一种方法去求参数,得到代价函数的最小值。这是一种求参数Ø的解析方法,不再像梯度下降那样一步一步的迭代,而是直接一次性的求出参数Ø,得出最小值对这个算法的直观理解...原创 2019-10-14 11:01:18 · 1048 阅读 · 0 评论 -
机器学习常见概念
最常见的两种机器学习算法 - Supervised learning > 给算法一个数据集,其中包含 the right answer,即带有标签。算法的目的进行预测,给出更多的正确答案> 包括回归问题(regression problem)(eg房价预测,设法预测一个连续值输出) 分类问题(Classification,设法预测一个离散值输出,eg预测肿...原创 2019-10-06 10:05:40 · 121 阅读 · 0 评论 -
梯度下降算法
梯度下降法 Gradient descent作用: 用来最小化函数,这里用来最小化代价函数。做法是:给定a,b最初值,一般起初都为0,然后不停的一点点(在图像上表示即是360度环绕四周,我下一步要怎么走才能最快下降到山底)的改变a,b来使得代价函数变小,直到找到代价函数的最小值或者局部最小值。从而也就确定了a,b的值梯度下降法的特点:最初点选择不同会得到一个不同的最优解。简化研究:假设只...原创 2019-10-10 16:00:33 · 133 阅读 · 0 评论 -
线性回归(一元和多元)
监督学习的一种以预测房价为例,有一组数据集,以房子大小为X轴,以售价为Y轴,画图。回归用来预测一个连续输出值,对应着分类问题,预测一个离散输出值,两者都为监督学习一组数据集,(x,y),x为输入值,经过假设函数h,得到值预测值y。h是y关于x的线性函数,这种模型称为线性回归(liner regression)or单变量线性回归。h(x)=ax+b,a与b称为模型参数,parameters...原创 2019-10-10 17:01:59 · 564 阅读 · 0 评论