![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 63
泡不会菜
这位同学,不能够三分钟热度啊!
展开
-
00-数据预处理
累了,直接截图原创 2022-03-24 20:56:11 · 133 阅读 · 0 评论 -
04-反向传播
文章目录双层神经网络Pytorch 里的Tensor反向传播思想(手动推导)反向传播实现代码(含解析)输出结果代码纯享版双层神经网络Pytorch 里的Tensor用法:torch.Tensor([data]),对张量的操作,想象成建立计算图的过程。Tensor中重要的两个成员:.data: 用于保存权重本身的值w,本身也是个张量。.grad: 保存loss对权重w的偏导,本身也是个张量。(笼统一点,梯度就是loss对权重的导)如果想直接要张量里的值(标量),用 张量.item()原创 2022-03-22 23:01:18 · 1381 阅读 · 0 评论 -
02-梯度下降、随机梯度下降
文章目录Def代码分析02-BGD02-SGDDef损失函数loss:对单个样本代价函数cost:对整个训练集 MSE均方误差梯度(Batch gradient):cost对权重的导数随机梯度(Stochastic gradient):loss对权重的导数凸函数:任取两个点,画一条直线,直线都在曲线上方,则为凸函数。凸函数有全局最优。BGD:收敛到局部最优SGD:更容易收敛到全局最优,但时间复杂度大GD 和 SGD 的折中:mini-batchGD (深度学习中常用)鞍点:导数那里等于原创 2022-03-20 22:04:36 · 1033 阅读 · 0 评论 -
记录一次连环报错和倒霉的一天
就是很倒霉,但问题解决了又很开心,随笔记录下心情。原创 2022-03-15 20:53:32 · 1010 阅读 · 0 评论 -
anaconda下安装pytorch
超级齐全,亲身实践原创 2022-02-15 15:24:12 · 2157 阅读 · 2 评论 -
01-线性模型
跟着b站学习之 刘二大人up的《PyTorch深度学习实践》完结合集1:y_hat = wx实现,模型2:y_hat = wx + b原创 2022-02-17 21:37:19 · 465 阅读 · 0 评论