深度学习
文章平均质量分 65
易大飞
梦想贵在坚持!
展开
-
Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification论文解读
Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal Classification论文解读原创 2022-07-22 18:55:46 · 2260 阅读 · 0 评论 -
Ultra Fast Structure-aware Deep Lane Detection论文解读
Ultra Fast Structure-aware Deep Lane Detection论文解读,论文及代码原创 2022-07-11 18:28:14 · 1820 阅读 · 0 评论 -
车道线检测——概述
车道线检测,是自动驾驶中重要的组成部分。该文主要对车道线检测做了简单的概括和总结。原创 2022-07-11 11:01:05 · 8340 阅读 · 1 评论 -
ViT-YOLO论文解读
ViT-YOLO论文解读原创 2022-07-01 19:18:54 · 4324 阅读 · 4 评论 -
TPH-yolov5论文解读
TPH-yolov5论文简介。原创 2022-06-27 19:14:33 · 13907 阅读 · 0 评论 -
视频检测、视频分类等视频相关算法
ImageNet VID Benchmark (Video Object Detection) | Papers With Code原创 2022-05-25 11:41:16 · 1148 阅读 · 0 评论 -
pytorch、cuda、python对应版本信息
cuda+python+torchhttps://download.pytorch.org/whl/torch_stable.html原创 2022-05-25 11:27:08 · 2762 阅读 · 0 评论 -
5. VOLO: Vision Outlooker for Visual Recognition
VOLO的整体流程很简单:主要分为两个阶段,第一个阶段使用outlookattention + MLP获取图像特征,第二阶段使用普通attention + MLP获取图像特征,对此时获取的图像特征再执行classAttention提取分类token特征,最后进行类别划分。outlookattention (unfold + matmul + fold操作)...原创 2022-01-05 19:19:36 · 1986 阅读 · 0 评论 -
1. attention is all in need
在视频和github中有相关作者非常详细的讲解,感觉受益匪浅,因此学习记录。讲解视频:从中文Transformer到BERT的模型精讲,以及基于BERT情感分类实战_哔哩哔哩_bilibili视频笔记 github:https://github.com/aespresso/a_journey_into_math_of_ml/blob/master/03_transformer_tutorial_1st_part/transformer_1.ipynb...原创 2021-11-15 21:03:31 · 304 阅读 · 0 评论 -
2. vit——vision transformer
了解vit之前可以先看论文 attention is all in need,主要看论文中transformer中的encode和decode部分。在vit中主要应用了transformer的encode部分。vit整体的网络框架结构图vit原理讲解的很好:ViT和DeiT的原理与使用 - 知乎vit原理:把图像使用patch(p*p*c),分隔为N等份。每份拉成一维向量D。N等份就有N*D维度。因为分隔图片的patch尺寸可能会拉成很长的一维向量(比如patch尺寸为32,3通道。原创 2021-11-15 21:02:19 · 2627 阅读 · 0 评论 -
3. deit——Training data-efficient image transformers & distillation through
deit是vit的改进,使用的网络框架基本一致。主要参考:ViT和DeiT的原理与使用 - 知乎参考:DeiT:使用Attention蒸馏Transformer知识蒸馏中的教师网络,可以使用其他非transformer形式的网络结构,比如卷积网络(resnet,efficientnet)等。个人总结:deit和vit形式一直,在网路结构中多了一个distillation token,类似于class token的形式。distillation toke原创 2021-11-15 21:01:46 · 3035 阅读 · 0 评论 -
4. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows
论文:https://arxiv.org/abs/2103.14030分类代码:https://github.com/microsoft/Swin-Transformer检测代码:https://github.com/SwinTransformer/Swin-Transformer-Object-Detection语义分割代码:https://github.com/SwinTransformer/Swin-Transformer-Semantic-Segmentation摘要:作者.原创 2021-04-21 20:36:38 · 407 阅读 · 0 评论 -
归一化、标准化、单位化方法的总结
无论传统图像处理,还是深度学习,我们经常会听说存在L1 normalization,L2 normalization,那么这些归一化是什么呢?在统计学习中,归一化的具体作用是归纳归一样本的统计分布性。归一化在0~1之间是统计的概率分布,归一化在-1~+1之间是统计的坐标分布。即该函数在(负无穷,正无穷)的积分为1。下图为pytorch官网normalize的定义和实现方程从公式中可以看出这是一个Lp normalize,p表示1,2,...,n。sigma是一个极小的小数,为了防止分母为原创 2020-07-20 15:19:48 · 14350 阅读 · 1 评论 -
yolov4论文及技术点总结
YOLOv4: Optimal Speed and Accuracy of Object Detection作者是来自俄罗斯的Alexey大神论文连接:https://arxiv.org/pdf/2004.10934.pdf源码:https://github.com/AlexeyAB/darknet摘要本文假设通用特征包括:加权残差连接(WRC),跨阶段部分连接(CSP),跨小批量规范化(CmBN),自对抗训练(SAT)和Mish激活。本文使用了新功能:WRC,CSP,CmBN.原创 2020-06-10 10:14:22 · 1335 阅读 · 1 评论 -
RCNN的演变
详细信息可参考: http://zh.gluon.ai/chapter_computer-vision/rcnn.html1. 早期传统的目标检测或者图像分类,对整个图像或者图像滑窗截取的方式,计算对应的特征,获取特征的方式使用梯度计算,比如hog,lbp,sift,orb,surf等进行特征描述,获取特征后,把特征放入分类器,进行特征分类。如果是整幅图像放进去,就能够实现特征分类,如果是滑窗截取的方式就是目标检测。2. 接着是r-cnn(其中r表示region)的出现,在传统图像处理的思路上.原创 2020-05-09 15:41:52 · 363 阅读 · 1 评论 -
Group Convolution分组卷积,以及Depthwise Convolution和Global Depthwise Convolution
转载至:https://www.cnblogs.com/shine-lee/p/10243114.htmlGroup Convolution分组卷积最早见于AlexNet——2012年Imagenet的冠军方法,Group Convolution被用来切分网络,使其在2个GPU上并行运行,AlexNet网络结构如下:Convolution VS Group Convoluti...转载 2020-04-22 10:38:35 · 377 阅读 · 0 评论 -
目标识别:Bag-of-words表示图像
转载至:https://www.cnblogs.com/shihuajie/p/5782515.htmlBOW (bag of words) 模型简介Bag of words模型最初被用在文本分类中,将文档表示成特征矢量。它的基本思想是假定对于一个文本,忽略其词序和语法、句法,仅仅将其看做是一些词汇的集合,而文本中的每个词汇都是独立的。简单说就是讲每篇文档都看成一个袋子(因为里面装的都是词...转载 2019-01-14 10:35:50 · 544 阅读 · 0 评论 -
通过 TensorRT 实现网络模型的推理加速
当前最火的莫过于深度学习,各大公司为抢占深度学习战略的制高点,纷纷出台了各种深度学习框架,比如谷歌的 TensorFlow,BVLC 的 Caffe,Fchollet 公司推出的 Keras,微软推出的 CNTK,DMLC 公司推出的 MXNet,Facebook 推出的 Torch7 等等。目前深度学习的网络是越来越深,越来越复杂。训练时的时间长短对用户来说是不关心的,用户只关心运行时的速度...原创 2018-08-14 18:54:13 · 3560 阅读 · 2 评论