机器学习
文章平均质量分 85
明天一定早睡早起
乐于开坑,苦于填坑。
展开
-
RepVGG论文阅读笔记
RepVGG提出重参数化,训练和推理结构解耦。在ImageNet上,RepVGG达到80%以上的top-1精度,在NVIDIA 1080Ti GPU上,RepVGG模型运行速度比ResNet-50快83%,比ResNet-101快101%,具有更高的精度,并与最先进的模型如EfficientNet和RegNet相比显示了良好的精度-速度权衡。原创 2022-09-11 22:15:34 · 454 阅读 · 1 评论 -
ConvNext笔记
1.drop path1.1.复习下dropout早些时候学习过drop out,先回顾下drop out的原理。简单来说,就是在训练过程中随机“失活”部分神经元。,如图所示:所谓失活,就是将神经元的输出值置0。更具体来说,我们现在所用的dropout都是Inverted Dropout,即训练过程中除去失活的神经元外,对剩余的神经元进行缩放。那么我们为什么要进行缩放呢?这就不得不提到早先时候dropout原始论文所提到的“朴素版”,也称为Vanilla Dropout早先Vanilla D原创 2022-05-10 09:22:22 · 1956 阅读 · 2 评论 -
Ubuntu20.04 编译 darknet 训练yolov3-tiny 记录
Ubuntu20.4 编译 darknet 训练yolov3-tiny 记录帮学弟训练配的,编译踩了些坑故记录一下。配置及环境GPU:GTX1050TICUDA/CUDNN:11.21. git darknetgit clone https://github.com/pjreddie/darknet2.修改makefile文件GPU=1 #如果使用GPU设置为1,CPU设置为0CUDNN=0 #如果使用CUDNN设置为1,否则为0OPENCV=0 #如果调用摄像头,还需要设置OP原创 2022-03-31 01:31:21 · 1677 阅读 · 9 评论 -
Faster R-CNN 论文总结
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks核心是region proposal network(RPN)。本质上是把fast r-cnn当中region proposal的方法从selective search算法替换成RPN。论文提到的训练方法现在已经不用了,pytorch的官方实现当中直接进行了联合训练。摘要当前(faster r-cnn提出前)SOTA的目标检测网络需要region原创 2022-01-24 20:34:00 · 2239 阅读 · 0 评论 -
R-CNN Fast R-CNN Faster R-CNN总结
Faster RCNN理论合集他的视频总结的非常好!在CSDN也有博客。用户名:太阳花的小绿豆这篇博客基本是在他的视频里面进行总结的。具体论文还没有看。R-CNN算法流程RCNN算法流程可分为4个步骤一张图像生成1K~2K个候选区域(使用Selective Search方法)利用Selective Search算法得到一些原始区域,然后使用一些合并策略将这些区域合并,得到一个层次化的区域结构,而这些结构就包含着可能需要的物体。对每个候选区域,使用深度网络提取特征将2000候选区域缩放原创 2022-01-24 20:29:32 · 1866 阅读 · 0 评论 -
ResNet 残差网络 一些粗略的理解
Deep Residual Learning for Image RecognitionResNet是何凯明等人在2015年的论文《Deep Residual Learning for Image Recognition》提出的一种结构。其主要使用了残差块,来解决训练困难的问题以及模型退化问题。在2015年ImageNet检测、ImageNet定位、COCO检测和COCO分割任务的第一名。ResNet的由来深度卷积神经网络为图像分类带来了一系列突破。当年一系列的研究也表明网络深度是至关重要的,在具有挑原创 2022-01-21 12:49:36 · 2561 阅读 · 0 评论 -
NiN(Network in Network) pytorch实现
NiN(Network in Network)NiN(Network in Network)是Min Lin等人在2014的论文《Network in Network》中提出的一种结构,用于增强模型对感受野内局部块的可分辨性。作者以结构更复杂的方式构造微型神经网络(多层感知机)来抽象感受野内的数据。通过堆叠这样的微型神经网络可以构造更深的NiN。此外,作者在分类层的特征图上使用了全局平均池化(global average pooling)增强模型局部建模能力,这比传统的全连接层更不容易过拟合(参数少)。原创 2021-11-17 19:31:40 · 847 阅读 · 0 评论 -
VGG pytorch实现
VGGVGG是牛津大学的视觉几何组(Visual Geometry Group)在2015年的论文《Very Deep Convolutional Networks for Large-Scale Image Recognition》上提出的一种结构,在当年(2014年)的ImageNet分类挑战取得了第二名的好成绩(第一名是GoogleNet)。主要工作是证明了通过使用非常小的卷积层(3x3)来增加网络深度进而提高性能。VGG结构论文共设计了5种网络(A~E)来证明网络深度的增加带来的网络性能的提升原创 2021-11-13 19:11:04 · 3925 阅读 · 4 评论 -
AlexNet pytorch实现
AlexNet论文网络结构网络包含8层,前5层为卷积层,后3层为全连接层。论文附图的几个问题:输入图像尺寸应为227M=⌊N−kernelsize+2∗paddingstride+1⌋ M=\lfloor\frac{N-kernelsize+2*padding}{stride}+1\rfloorM=⌊strideN−kernelsize+2∗padding+1⌋采用双GPU训练,结构可以整合结构可以细化细化后的网络结构AlexNet的细节激活函数不同于以往常用sigmoid函原创 2021-11-05 22:33:24 · 1826 阅读 · 2 评论 -
LeNet5 pytorch实现
LeNet5网络采用LeNet5结构,数据集为MNIST。输入为32x32的单通道图像。网络共分为7层。网络结构C1层-卷积层核大小:5x5核数目:6步长:1输出特征图大小:6x28x28激活函数采用sigmoidS2层-池化层采用平均池化核大小:2x2步长:2输出特征图大小:6x14x14C3层-卷积层核大小:5x5核数目:16步长:1输出特征图大小:16x10x10激活函数采用sigmoidS4层-池化层采用平均池化核大小:2x2步长:2输出特征图大小:原创 2021-10-28 13:11:57 · 1025 阅读 · 0 评论 -
【吴恩达机器学习】一些个人想法的记录
【吴恩达机器学习】一些个人想法的记录视频链接:https://www.bilibili.com/video/BV164411b7dxhttps://www.bilibili.com/video/BV164411S78V笔记(来自github上的大牛):https://github.com/fengdu78/Coursera-ML-AndrewNg-Notes问题1:P45推导正规方程公式中分母m的问题答:这里其实代入m也无妨,最后都会在令偏导数为0时约掉m。此外,在推导下述公式时除了用原创 2021-06-13 16:45:39 · 83 阅读 · 0 评论