Pytorch深度学习实践
文章平均质量分 81
B站刘二大人,学习实践
爱编成不爱编程
这个作者很懒,什么都没留下…
展开
-
第十三讲循环神经网络(高级篇)
循环神经网络高级篇 RNN GRU的循环神经网络分类器 B站刘二大人教学学习原创 2023-08-08 01:47:53 · 133 阅读 · 3 评论 -
第十二讲循环神经网络(基础篇)
RNN循环神经网络(基础篇) 【B站 刘二大人 学习】原创 2023-08-07 22:52:12 · 119 阅读 · 1 评论 -
第十一讲卷积神经网络(高级篇)
CNN神经网络的Inception Model 与 Residual Network原创 2023-08-06 23:02:33 · 134 阅读 · 1 评论 -
第十讲卷积神经网络(基础篇)
CNN卷积神经网络(基础篇)本文课件来源 (B站刘二大人老师)!原创 2023-08-05 17:03:54 · 75 阅读 · 1 评论 -
第九讲多分类问题
多分类问题原创 2023-08-03 22:20:53 · 45 阅读 · 0 评论 -
第八讲加载数据集
B站 刘二大人 学习笔记和源码原创 2023-08-03 16:40:07 · 58 阅读 · 0 评论 -
第七讲处理多维特征的输入
B站 刘二大人 学习原创 2023-08-03 11:50:36 · 66 阅读 · 0 评论 -
第六讲逻辑斯蒂回归
B站刘二大人原创 2023-08-03 08:43:58 · 57 阅读 · 0 评论 -
第四讲反向传播
B站 刘二大人 教学视频①前沿代码提示部份:forward函数的返回值也是Tensor,loss函数的返回值也是Tensor②本算法中反向传播主要体现在,l.backward()。调用该方法后w.grad由None更新为Tensor类型,且w.grad.data的值用于后续w.data的更新。③ l.backward()会把计算图中所有需要梯度(grad)的地方都会求出来,之后把梯度都存在对应的待求的参数中,最终计算图被释放。取tensor中的data是不会构建计算图的。原创 2023-08-02 18:06:48 · 42 阅读 · 0 评论 -
第三讲梯度下降算法
B站刘二大人①学习率(步长)的问题深度学习中,并没有过多的局部最优的点,如何解决鞍点是最大的难题。原创 2023-08-02 17:07:23 · 39 阅读 · 0 评论 -
第二讲线性模型
代码画出的结果 权重和损失类太长,不展示,只展示图。实在是实现不了那个颜色,感觉有点丑,还是回归原始。步骤4,inferring 推理工作。步骤1,DataSet 数据集。步骤3,Training 训练。步骤2,Model 选择模型。原创 2023-07-31 18:29:10 · 51 阅读 · 2 评论 -
安装pytorch
创建pytorch包 conda create -n pytorch python=3.8 根据自己的版本决定。原创 2023-07-31 05:15:45 · 124 阅读 · 0 评论