![](https://img-blog.csdnimg.cn/20210801164004290.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
《PyTorch深度学习实践》课程代码及课后作业
文章平均质量分 79
分享PyTorch深度学习实践课程代码及课后作业
FeverTwice
Stay hungry, stay foolish!
(╹ڡ╹ )
展开
-
《PyTorch深度学习实践》 课堂笔记 Lesson7 神经网络多维特征输入的原理推导与实现
文章目录1.实现过程1.1源代码1.2训练结果1.实现过程1.1源代码# -*- coding:utf-8 -8-"""Author: LeungDate: 2021--08--04"""import numpy as npimport torchimport matplotlib.pyplot as plt# 导入数据xy = np.loadtxt('diabetes.csv.gz', delimiter=',', dtype=np.float32)# 以逗号作为分隔符,.原创 2021-08-04 10:38:05 · 701 阅读 · 0 评论 -
《PyTorch深度学习实践》 课堂笔记 Lesson6 使用PyTorch实现Logistic回归
文章目录1.交叉熵2.线性回归和Logistic回归的区别2.实现过程2.1源代码训练结果1.交叉熵若存在两个分布PD1(x) ,PD2(x)P_{D_1}\left( x \right) \,\,, P_{D_2}\left( x \right)PD1(x),PD2(x)交叉熵可以由以下公式表示:∑iPD(x=i)⋅ln(PT(x=i))\sum_i^{}{P_D\left( x=i \right) \cdot \ln \left( P_T\left( x=i \right) \ri.原创 2021-08-03 20:56:43 · 495 阅读 · 1 评论 -
《PyTorch深度学习实践》 课堂笔记 Lesson4 使用PyTorch实现简单线性回归
文章目录1.PyTorch实现线性回归的基本步骤2.PyTorch的几种优化方法3.简单线性回归的实现3.1源代码实现3.2优化100次的结果3.3优化1000次的结果4.不同优化方式的对比4.1 Adagrad4.2 Adam4.3 Adamax4.4 ASGDASGD = 1004.5 RMSprop4.6 Rprop写在最后1.PyTorch实现线性回归的基本步骤构造数据集合定义Model函数模块在函数模块中构造向前传递forward()函数(也就是计算y_pred)计算损失值选择优.原创 2021-08-03 12:41:58 · 442 阅读 · 0 评论 -
《PyTorch深度学习实践》 课堂笔记 Lesson3
文章目录1.梯度下降的方式2.朴素梯度下降运行结果3.随机梯度下降(SGD)运行结果写在最后1.梯度下降的方式区别梯度下降随机梯度下降(SGD)特点一大块数据一起操作小块数据分开操作性能(越高越好)低高时间复杂度(越低越好)低高2.朴素梯度下降# -*- coding:utf-8 -8-"""Author: LeungDate: 2021--08--01"""import matplotlib.pyplot as pltimport.原创 2021-08-01 23:29:29 · 163 阅读 · 0 评论 -
《PyTorch深度学习实践》 课后作业 Lesson2
文章目录题目描述题解运行结果写在最后题目描述使用穷举法计算逼近线性模型y = ax + b这里为了计算放便,以y = 3x + 4来作为例子则对应:x = 2.0 , 3.0 , 4.0y = 10.0, 13.0, 16.0题解import numpy as npimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3D# 以y = 3x + 4函数作为例子# 对应样本点有# x = 2.原创 2021-08-01 18:37:11 · 369 阅读 · 0 评论