![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
网络
文章平均质量分 89
小欧尼思密达
这个作者很懒,什么都没留下…
展开
-
【个人总结】基于深度学习的语音分离代码及论文
个人总结基于深度学习的语音分离代码及论文原创 2022-06-10 10:35:49 · 3754 阅读 · 0 评论 -
【学习笔记】【深度学习】pytorch官方demo实现一个分类器(LeNet)
笔记转载自:https://blog.csdn.net/m0_37867091/article/details/107136477前言最近在b站发现了一个非常好的 计算机视觉 + pytorch实战 的教程,相见恨晚,能让初学者少走很多弯路。因此决定按着up给的教程路线:图像分类→目标检测→…一步步学习用 pytorch 实现深度学习在 cv 上的应用,并做笔记整理和总结。up主教程给出了pytorch和tensorflow两个版本的实现,我暂时只记录pytorch版本的笔记。参考内容来自:up转载 2020-11-27 22:58:08 · 810 阅读 · 0 评论 -
【学习笔记】【深度学习】卷积神经网络
视频笔记,视频链接地址:https://www.bilibili.com/video/BV1b7411T7DA卷积神经网络包含了卷积层的都可以认为是卷积神经网络应用:图像分类、图像检索、目标检测、图像分割、无人驾驶GPU比CPU速度快很多,大概在20倍全连接层将一个特征矩阵展开成行向量或列向量,然后进行运算one-hot编码是常用的对标签编码的一种方式许多神经元全连接得来的x1x2x3是3个激励,w1w2w3是3个权重,相乘求和再加激励函数,再通过偏置,得到一个输出BP神经网络,每列之间原创 2020-11-27 14:29:17 · 180 阅读 · 0 评论 -
【学习笔记】【深度学习】ResNet残差网络
笔记参考视频【6.1 ResNet网络结构,BN以及迁移学习详解】,地址如下:https://www.bilibili.com/video/BV1T7411T7wa/?spm_id_from=333.788.videocard.0举例:34层网络中,第一层卷积层,然后池化层,有链接线的就是残差结构,最后通过一个平均池化下采样操作,再通过一个全连接层(输出层),基本结构就是堆叠残差结构。网络中的亮点:超深的网络结构(突破1000层)提出residual模块使用Batch Normalizatio原创 2020-11-27 09:55:15 · 2288 阅读 · 2 评论