![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
CopyDragon
把导师丢到水里,你自己能够游上岸,你就是nb
展开
-
Feature scaling and Learning Rate
【代码】Feature scaling and Learning Rate。原创 2024-05-15 19:42:09 · 262 阅读 · 0 评论 -
多变量线性回归
【代码】多变量线性回归。原创 2024-05-15 10:26:50 · 175 阅读 · 0 评论 -
简单线性回归——梯度下降
我们需要用到上面的五个公式来进行梯度下降。原创 2024-05-14 09:35:47 · 509 阅读 · 1 评论 -
简单线性回归————损失函数(假设b为0),观察w改变损失函数的情况
具体地,你计算了每个数据点的实际值与预测值之间的误差,并将误差的绝对值以文本形式显示在图上。文本的位置是通过在数据点的x坐标和预测值的y坐标上添加小的偏移量(这是必要的,因为我们关心的是差值的大小,而不是差值的正负。当我们去滑动窗口的时候,要保证当前的图上只有当前的结果,不能有上次的结果去影响。这里创建了一个画布的两个子图,分别表示初始预测的和对应的损失函数。的位置,以避免箭头与实际值的数据点重叠。如图当滑动蓝色的矩形的时候,会输出对应的坐标轴上的值。这里引用滑块的函数用来表是不同的w的值对函数的影响。原创 2024-05-12 13:14:45 · 1604 阅读 · 2 评论 -
简单的线性回归(以x轴为住房面积,y轴为价格为例)
由于这个程序中使用的数据是随机生成的,因此损失值(即预测误差的平方的平均值)的大小是不确定的,并且可能在不同的运行之间变化很大。以上就是刚开始学习机器学习的线性回归的初步成果(虽然是别人的,但自己理解后又写了一遍)其中真实的数据如图分布为散点,而用过线性回归进行预测,那么预测的数据应是一条直线如图。第二个方程是线性回归的预测方程,w和b是一个偏一两,在后面的算法优化中会计算出w和b。第一个方程是计算预测后的损失值的,损失值越小越好,表示性能优。由于没有具体的数据这里的x和y的训练值就用随机数来进行训练。原创 2024-05-11 21:57:12 · 341 阅读 · 1 评论