pytorch学习
文章平均质量分 89
徳一
我建议~~滑着走~~
展开
-
【逻辑回归+实战】
原文:https://blog.csdn.net/didiaopao/article/details/126483343。原创 2024-09-23 10:39:18 · 879 阅读 · 0 评论 -
【线性回归模型实战】
1、获取数据集2、选用线性回归模型fxwxb3、损失函数lossfx−y2wx−y24、梯度下降求导更新参数5、设置训练轮次6、更新完参数的模型预测。原创 2024-09-20 14:42:18 · 787 阅读 · 0 评论 -
【梯度下降算法学习笔记】
求损失函数关于该参数的偏导数,然后利用梯度下降法的公式不断迭代求解,最终在损失函数趋于平稳不再下降为止。参数不能再调节且再调节,loss的值也不会再小了。经过之前的学习我们来引入梯度下降的理念。原创 2024-09-20 09:45:34 · 860 阅读 · 0 评论 -
【线性回归模型】
创建一些带标签的数据集𝐷 = {(𝒙1, 𝑦1) , (𝒙2, 𝑦2 ), …即将参数模型预测出的y与真实的y做对比,来调节参数和权重,以及偏置使得误差最小。这里loss值(即损失值)的函数为开口向上的二次函数,那一定有个最小值。很显然𝒙和𝒘都是一个矩阵,利用最小二乘法对这个矩阵求最优的𝒘矩阵参数。f(x)就是线性模型预测值,y为真实值,这里把b省略掉了便于计算。就是对w求导,导数为0时取得极小值,w=y/x时loss值最小。为0,看看对矩阵求导的公式知识点吧,如。在线性代数里可写为它的转置乘以它本身。原创 2024-09-19 16:58:27 · 1182 阅读 · 0 评论 -
【pytorch学习笔记,利用Anaconda安装pytorch和paddle深度学习环境+pycharm安装---免额外安装CUDA和cudnn】
https://blog.csdn.net/didiaopao/article/details/119787139?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522B02C2DA4-9482-4619-9B8C-49D5DD56384E%2522%252C%2522scm%2522%253A%252220140713.130102334…%2522%257D&request_id=B02C2DA4-9482-4619-9B8C-49D5DD56原创 2024-09-14 16:01:28 · 620 阅读 · 0 评论