![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 72
__0077
这个作者很懒,什么都没留下…
展开
-
【自学记录】PyTorch语音识别实战
第三章:音频信号处理的理论与Python实战3.4 梅尔频率倒谱系数的计算过程第一步:数据准备import numpy as npfrom torchaudio import datasetsimport sound_utilsimport soundfile as sffrom matplotlib import pyplot as plt"--------------第一步:数据准备-------------"#signal:NumPy 数组,包含了音频文件中的音频数据。每个元素代表原创 2024-05-17 13:15:29 · 319 阅读 · 0 评论 -
【自学记录7】【Pytorch2.0深度学习从零开始学 王晓华】第七章 实战ResNet
遇到的问题:在PyTorch中,nn.ReLU(inplace=True)中的inplace=True参数表示该ReLU激活函数。这意味着它会在原地(in-place)执行操作,不会占用额外的内存空间来存储输出。具体地说,当你使用inplace=True时,输入张量x在经过ReLU激活函数后,其值会直接被ReLU的结果所替换。这样做可以节省内存,但需要注意,由于输入张量被修改了,因此在后续的计算中,如果你还需要原始张量的值,就可能会遇到问题。2、ResNet的四个主要阶段。原创 2024-04-07 23:15:12 · 432 阅读 · 0 评论 -
【自学记录5】【Pytorch2.0深度学习从零开始学 王晓华】第五章 基于Pytorch卷积层的MNIST分类实战
in_channels=3: 输入的通道数,对应图像的3个颜色通道。out_channels=10: 输出的通道数,即卷积后我们想要得到的特征图的数量。kernel_size=3: 卷积核的大小,这里使用的是3x3的卷积核。stride=2: 卷积核移动的步长,这里步长为2,意味着卷积核每次移动2个像素。padding=1: 在图像边缘添加的填充像素数。这通常用于保持输出尺寸,或确保卷积核可以到达图像的边缘。源码\第二章\ 5_1_2.py。原创 2024-04-02 21:09:20 · 883 阅读 · 0 评论 -
【自学记录】【Pytorch2.0深度学习从零开始学 王晓华】第四章 深度学习的理论基础
神经网络前向传播函数最后使用 return self.output_cells[:] 而不是 return self.output_cells 的主要目的是返回 self.output_cells 的一个浅拷贝(shallow copy),而不是原始对象的引用。j=1,依次输出(1,1),(2,1),对应W11,W12。j=2,依次输出(1,2),(2,2),对应W21,W22。j=3,依次输出(1,3),(2,3),对应W31,W32。所以,W矩阵还是【in,out】结构,a1=X1。原创 2024-04-02 13:02:39 · 602 阅读 · 1 评论 -
【自学记录】【Pytorch2.0深度学习从零开始学 王晓华】第三章 基于Pytorch的MNIST分类实战
源码\第三章\one_hot.py。原创 2024-04-01 12:58:52 · 677 阅读 · 0 评论