![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
奔跑的星黛露
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习学习笔记 --- 支撑向量机
【监督学习】(1)更改逻辑回归中的假设函数(2)更改逻辑回归中的损失函数(3)假设函数(4)对大间距的理解【决定边界的方式】【选择黑色的边界,即与两边样本间距最大的边界】【此时设置的C(参数)非常的大】【当C非常大时,异常点对边界的影响会很大(从黑到紫),如果C比较小,可以忽略异常点得到正确的边界】(5)高斯核函数【参数变化】【标记点与相似函数定义新的特征变量】(6)选择标记点【标记点等于训练样本】...原创 2022-05-26 13:00:46 · 100 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 神经网络
神经网络原创 2022-05-23 16:50:59 · 330 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化
逻辑回归正则化【使用线性回归解决逻辑回归不是一个很好的办法】(2)假设函数(3)假设函数输出的含义【h(x):当输入为x时,输出为y的概率】...原创 2022-05-18 20:58:15 · 353 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 多变量线性回归
(1)符号表示(2)假设函数(3)损失函数(4)梯度下降法用于多变量线性回归(5)特征缩放(6)均值归一化【目的:让梯度下降速度更快,收敛迭代次数更少】(7)代价函数与迭代次数【右侧为自动收敛检测】【学习速率过大,可能无法达到收敛】【选择更小的学习速率已到达收敛】(8)多项式回归【通过设置变量与变量之间的关系转化为线性回归】...原创 2022-05-17 21:37:28 · 219 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 单变量线性回归
机器学习 --- 单变量线性回归原创 2022-05-16 23:44:55 · 324 阅读 · 0 评论