- 博客(6)
- 收藏
- 关注
原创 梯度下降法
目的梯度下降法(Gradient Descent)是一个算法,但不是像多元线性回归那样是一个具体做 回归任务的算法,而是一个非常通用的优化算法来帮助一些机器学习算法求解出最优解的, 所谓的通用就是很多机器学习算法都是用它,甚至深度学习也是用它来求解最优解。所有优 化算法的目的都是期望以最快的速度把模型参数θ求解出来,梯度下降法就是一种经典常用 的优化算法。原因。
2023-08-22 22:24:44 85 1
原创 调用Scikit-learn中的多元线性回归求解模型
我们为了去计算出截距项,我们还人为的添加了一个 X0 列 向量,这里我们并没有这样去做,所以可想而知这个 sklearn 封装的类里面肯定是有点门道 的,里面是可以有些超参数传递的,python 里面的生成对象的第一个参数都是 self,我们 可以不用管这个,直接可以把 self 之后的参数看成是可以传的参数。注意:这里我们训练模型的时候用的训练集 的 X 是两个特征,那么我们这里去使用模型的时候传给模型的 X_new 也得是两个维度。
2023-08-21 14:12:55 116
原创 机器学习--线性回归
通过输入测试集的自变量向函数h和y,得出预测出来的结果与实际的结果,让两者相减得到误差,通过误差可以看出我们预测的结果好还是不好,如果误差小于某一个极小数时,我们可以认为我们建立的模型非常成功,反之则是失败。该图以点(1,1),(2,2),(3,3)作为数据集,我们要找到的假设函数要尽量拟合该数据,假设我们这里有两个假设函数 h1 = 1/2x 和 h2 = x ,对应的损失函数分别为 J1(0,0.5),J(0,1) ,通过对比这两个式子可知,当取损失函数最小值时,误差最小,假设函数拟合的最好。
2023-08-20 13:20:50 86 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人