![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 86
wangjiwei9
这个作者很懒,什么都没留下…
展开
-
梯度下降法(6)
梯度下降法Gradient Descent 梯度下降法本身不是一个机器学习的算法,不能解决回归/分类问题 是一种基于搜索的最优化方法 作用:最小化一个损失函数 梯度上升法:最大化一个效用函数 超参数:初始起点 学习率 线性回归法的损失函数具有唯一最优解,不需要多次运行随机化初始点 在第6行if判断语句中,当学习率太大,会使得J(theta)很...翻译 2019-10-16 21:33:32 · 188 阅读 · 0 评论 -
线性回归算法(5)
线性回归算法 解决回归问题 思想简单,容易实现 许多强大的非线性模型的基础 结果具有很好的可解释性 蕴含机器学习中很多重要思想 1简单线性回归 分类问题的y周 为特征,颜色为类别,回归问题因为要预测连续的结果,所以需要一个轴来表示预测结果,y轴表示预测结果 2最小二乘法 import numpy as np class Si...翻译 2019-10-16 21:25:04 · 160 阅读 · 0 评论 -
多项式回归Polynomial-Regression(8.1)
多项式回归完全使用线性回归的思路。关键在于我们为原来的数据样本添加新的特征,而得到这些新的特征的方式是原有特征的多项式组合,这样就可以解决一些非线性问题。 多项式阶数越高模型越复杂 所以训练过程 可以先添加特征,然后再调用线性回归 import numpy as np import matplotlib.pyplot as plt #生成数据 x = np.random.uniform(...原创 2019-10-16 22:05:35 · 262 阅读 · 0 评论 -
逻辑回归Logistic Regression(9.2)(解决非线性问题)
逻辑回归如何解决下面非线性类型的分类问题 x1/x2平方项前面加上系数就是椭圆,加上x1/x2项圆心的位置就可以在坐标任意位置。加上x的立方或更高次项后,就会得到更复杂的任意边界 在实际使用多项式逻辑回归中 degree C 正则化(penalty='L1','L2') 都是超参数需要用网格搜索来确定,最适合我们数据的参数 在实际使用逻辑回归中 C 正则化(penalty='L1',...原创 2019-04-03 10:30:44 · 52 阅读 · 0 评论