- 博客(6)
- 资源 (1)
- 收藏
- 关注
原创 enumerate和iter的使用
enumerate和iter的使用 卷积神经网络中对数据集需要进行解析出图片信息和标签信息传输到model中,因此需要enumerate 和iter其中一种就行 一、enumerat的使用 for step, data in enumerate(train_dataloader): images, labels = data 二、iter的使用 train_data_iter = iter(train_dataloader)#转换为迭代器 trian_image, train_label = tr
2022-04-03 15:39:15 1952
原创 SPPNet学习
SPPNet 论文目的: 所有的神经网络都是需要输入固定尺寸的图片,比如224224(ImageNet)、3232(LenNet)、96*96等。这样对于我们希望检测各种大小的图片的时候,需要经过crop,或者warp等一系列操作,这都在一定程度上导致图片信息的丢失和变形,限制了识别精确度。 输入图片尺寸固定原因: 卷积层的参数和输入大小无关,它仅仅是一个卷积核在图像上滑动,不管输入图像多大都没关系,只是对不同大小的图片卷积出不同大小的特征图,但是全连接层的参数就和输入图像大小有关,因为它要把输入的所有像
2021-10-20 21:56:54 107
转载 计算机视觉网络结构学习路线
抛砖引玉,用深度学习执行计算机视觉网络结构任务的一条路线: ① 卷积神经网络 ② 残差网络 ③ (适合强噪数据的)深度残差收缩网络 残差收缩网络论文地址如下: M. Zhao, S. Zhong, X. Fu, B. Tang, M. Pecht, Deep residual shrinkage networks for fault diagnosis, IEEE Transactions on Industrial Informatics, vol. 16, no. 7, pp. 4681-46
2021-08-22 10:32:23 115
转载 计算机视觉,有哪些新的研究方向值得关注
计算机视觉,有哪些新的研究方向值得关注 注意力机制在近年来是一个大热门。 其中,一种经典的注意力机制算法是Squeeze-and-Excitation Network,它通过一个小型的子网络,自动获得一组权重,对各个特征通道进行加权 注意力机制在近年来是一个大热门。 其他大部分的注意力机制算法,也都是特征加权的形式。 在数据含有较多噪声时,可以考虑把“特征加权”给换成“软阈值化”。软阈值化是信号降噪算法的常用步骤,其公式如下: 而且,软阈值化的梯度,要么为0,要么为1,这是和ReLU一样的,也有利于避免
2021-08-22 10:06:18 473
原创 yoloV3spp学习教程
YOLOV3spp使用教程 这个文章是第一次发博客,可能有不对的地方,能给予一些指示,其次本篇文章主要还是在学习b站的一位up主的视频以及在博客上看到的所做的总结。我顺便艾特一下up主吧,不然不太好。@太阳花的小绿豆 up主:霹雳吧啦Wz github:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing 第一:首先注意的是环境配置 期初我使用的是torch1.8.1加上torchvision0.9.0和cuda11,但是跑程序会出
2021-08-03 22:17:09 429
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人