PyTorch 深度学习实践
文章平均质量分 92
B站六二大人视频课程总结,https://www.bilibili.com/video/BV1Y7411d7Ys?p=1
QwQllly
这个作者很懒,什么都没留下…
展开
-
《PyTorch深度学习实践》第十讲 卷积神经网络CNN
输入通道数等于卷积核的通道数, 卷积核的个数等于输出通道数格子内对应做数乘记住一个公式,width_in - kernel_size + 1就是输出的width 和 height。输出channel变成n时N输入通道, M输出通道需要的卷积核维度总结 卷积核大小一般是奇数pytorch模块代码测试。原创 2023-04-19 18:04:39 · 144 阅读 · 0 评论 -
《PyTorch深度学习实践》第九讲 Softmax Classifier解决多分类问题
1.怎么用softmax这个分类器解决多分类问题假设我们有10个分类,如何设计神经网络?用sogmoid:原本输出属于一类的概率,现在让其输出属于10个类的概率。此时每个类别都看为一个二分类问题,用BCE算损失。但这里存在的问题是:10个类别不能相互抑制(概率和=1)用softmax:由于1的缺点,我们希望输出的十个概率值能满足,10个类得有9个参数,但希望用到并行计算的能力,所以还是希望十个类的输出的计算是一样的。在神经网络的后面加一个softmax层2.在pytorch中如何实现。原创 2023-04-18 11:04:42 · 964 阅读 · 0 评论 -
《PyTorch深度学习实践》第八讲 加载数据集
本讲介绍用于加载数据的两个工具类:Dataset:构造数据集,支持索引DataLoader:主要目标是拿出Mini-Batch,在训练时能快速使用上讲回顾从两个方面考虑:运算速度,能否利用GPU并行计算的能力有无随机性,能否利用随机性跨越鞍点,使优化的性能更好上讲使用的糖尿病数据集,在做前馈时将所有数据都放进去了,即Batch。1√,2×如果使用随机梯度下降SGD(权重的更新公式中只使用一个样本)。1×,2√所以为了均衡性能和训练时间,以后采用mini-batch。原创 2023-04-03 19:19:24 · 151 阅读 · 0 评论 -
《PyTorch深度学习实践》第七讲 处理多维特征的输入
《PyTorch深度学习实践》第七讲 处理多维特征的输入 小结原创 2023-03-27 20:23:30 · 273 阅读 · 0 评论 -
《PyTorch深度学习实践》第六讲 logistic 回归
《PyTorch深度学习实践》第六讲 logistic回归 小结原创 2023-03-26 19:04:21 · 64 阅读 · 0 评论 -
《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归
《PyTorch深度学习实践》第五讲 用PyTorch实现线性回归原创 2023-03-20 19:43:41 · 117 阅读 · 0 评论 -
《PyTorch深度学习实践》第四讲 反向传播
《PyTorch深度学习实践》第四讲 反向传播原创 2023-03-17 21:56:53 · 453 阅读 · 0 评论 -
《PyTorch深度学习实践》第三讲 梯度下降算法
《PyTorch深度学习实践》第三讲 梯度下降算法原创 2023-03-16 11:38:21 · 145 阅读 · 0 评论 -
《PyTorch深度学习实践》第二讲 线性模型
《PyTorch深度学习实践》第二讲 线性模型 小结原创 2023-03-15 10:48:51 · 62 阅读 · 0 评论 -
《PyTorch深度学习实践》第一讲overview
B站课程《PyTorch深度学习实践》完结合集,第一讲小结原创 2023-03-14 12:41:31 · 106 阅读 · 0 评论