![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 50
RDSunday
计算机科学与技术专业
展开
-
清华大学镜像源地址
https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/win-64/原创 2021-12-07 08:46:31 · 12395 阅读 · 0 评论 -
共轭梯度法Matlab的实现
文章目录写在前面共轭梯度法代码实现标题函数定义部分函数测试画图显示效果显示方法运行方法写在前面写这篇博客是为了增加对共轭梯度的理解。最近最优化课一直在讲共轭梯度,雅克比,梯度下降啊,课上没听太懂,就课下花了点时间好好学一下,在此记录一下。这篇博客主要介绍了共轭梯度的matlab实现,代码可以运行看到效果。代码分为2个部分,第一部分代码是函数定义,第二部分代码是测试代码。共轭梯度法我是参考了下面这篇博客,以及B站的一个视频共轭梯度法的简单直观理解https://www.bilibili.com/原创 2021-12-02 15:20:40 · 12829 阅读 · 0 评论 -
最经典的回归模型参数估计算法—最小二乘
文章目录写在前面收获参考文献写在前面写了好几个关于梯度下降的pyhton脚本,里面都提到了最小二乘法,但是我对最小二乘法不太了解。下面是我找的2篇写的比较好的博客。收获读了这2篇博客,我知道L2范数(欧几里得范数)是怎么来的,为什么要用L2范数。真是豁然开朗。参考文献最经典的回归模型参数估计算法—最小二乘Ordinary Least Square(OLS) 普通最小二乘...原创 2021-11-13 16:42:42 · 1593 阅读 · 0 评论 -
小批量随机梯度下降法
文章目录写在前面小批量随机梯度公式代码参考文献写在前面小批量随机梯度下降法(Mini-batch Stochastic Gradient Decent)是对速度和稳定性进行妥协后的产物小批量随机梯度公式我们可以看出当b=1时,小批量随机下降法就等价与SGD;当b=N时,小批量就等价于全批量。所以小批量梯度下降法的效果也和b的选择相关,这个数值被称为批量尺寸(batch size)。对于如何选择b,感兴趣的朋友可以在下方进行讨论。代码'''小批量随机梯度下降法(Mini-batch Sto原创 2021-11-13 15:59:22 · 2623 阅读 · 0 评论 -
随机梯度下降法
文章目录写在前面随机梯度下降法代码参考文献写在前面随机梯度下降法就在随机梯度上。意思就是说当我们在初始点时想找到下一点的梯度,这个点是随机的。全批量梯度下降是从一个点接着一点是有顺序的,全部数据点都要求梯度且有顺序。全批量梯度下降虽然稳定,但速度较慢;SGD虽然快,但是不够稳定随机梯度下降法随机梯度下降法(Stochastic Gradient Decent,SGD)是对全批量梯度下降法计算效率的改进算法。本质上来说,我们预期随机梯度下降法得到的结果和全批量梯度下降法相接近;原创 2021-11-13 13:56:20 · 1054 阅读 · 0 评论 -
关于各种回归评价指标MSE、RMSE、MAE、R-Squared、Standard Deviation(标准差)
在查找有关各种回归评价指标时,发现有的博客不是图片显示不出来就是有的文章需要付费阅读。于是我自己查找资料总结一下吧。有相同感想的小伙伴可以支持一下。原创 2021-11-13 12:22:31 · 3935 阅读 · 0 评论 -
全批量梯度下降法在机器学习中的应用
文章目录数据集代码参考数据集https://download.csdn.net/download/weixin_43755104/40748551代码代码已经做了详细的注释,且可以正常运行。import pandas as pdimport numpy as npimport osos.getcwd()# F:\\pythonProject3\\data\\data\\train.csv# dataset_path = '..'# 这是一个全批量梯度下降(full-batch grad原创 2021-11-12 17:26:58 · 990 阅读 · 0 评论