李沐深度学习笔记
守望↪星空
在读大学生,分享学习的点点滴滴!欢迎关注!
展开
-
【李沐第三章】3.6、softmax回归的简单实现
李沐原创 2023-08-20 17:01:29 · 156 阅读 · 0 评论 -
【李沐】3.5、softmax回归的从0开始实现
李沐原创 2023-08-20 16:54:49 · 267 阅读 · 0 评论 -
【李沐3】3.5、图像分类数据集
李沐读书笔记原创 2023-08-20 14:13:22 · 195 阅读 · 0 评论 -
【李沐】3.3线性回归的简洁实现
通过net[0]选择⽹络中的第⼀个图层,然后使⽤weight.data和bias.data⽅法访问参数。我们还可以使⽤替换⽅法normal_和fill_来重写参数值。net.parameters() 返回神经网络模型中需要被优化的参数列表。0,0.0.01的意思是均值为0、标准差为0.01的正态分布中随机采样。主要是注意里面的写法,看到的别的代码知道啥意思就可以。线性层输入2,输出1。原创 2023-08-19 17:20:02 · 107 阅读 · 0 评论 -
【李沐】3.2线性回归从0开始实现
深度学习笔记原创 2023-08-19 16:10:30 · 479 阅读 · 0 评论