![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
系列论文
文章平均质量分 92
进阶媛小吴
规则简单易懂,粗暴却完美!
https://github.com/wuliwuxin
展开
-
ViT补充问题之Conv2d和StdConv2d
ViT模型中的Hybird混合模型补充原创 2022-10-14 10:57:08 · 2940 阅读 · 0 评论 -
时隔三月再次看ViT的认识与收获
嘿,太累了,就休息一会吧。闲谈转眼间2021年就剩下一个月了,回顾十一月,没有太多的收获,拖延症及其严重,总是在学习和不想学习之间徘徊。SGD的精髓就是梯度够大,可以一直跑,慢慢总是能收敛。我总不能找到某个方向一直去努力,总是来回波动。“简单,粗暴但效果很好”的东西,我很喜欢。非常符合我喜欢的话“规则简单易懂,粗暴却完美!“关注大的方向,而不局限于细节。ViT前言回顾三个月前初识ViTPaper:https://arxiv.org/abs/2010.11929Code:https://git.原创 2021-12-02 13:18:04 · 3351 阅读 · 0 评论 -
初识SINet和SINetV2改进版
我们都是穷尽自己仅有的一点天赋,来表达我们内心深处的感受。–乔布斯闲谈对问题/知识理解的深度和广度,哪个更重要?如果一定要选一个,我会选深度。但是我常常做不到对某一东西的深刻专研,总是会被新的东西吸引,而后又忘记了原本的计划。对问题/知识的大概了解,也让我做什么都没有底气,有时又有一点不屑。嗯,我已经知道这个了。其实我只是了解了一点点东西,从此往复,我还是那个小菜鸟。我想让自己改变。钻研一件事并从头到尾的从计划到交付的一段经历,可以让你之后的旅程,尤其是你陷入一些困境的时候,给你去完成那些困住你的事.原创 2021-11-20 16:14:38 · 6126 阅读 · 3 评论 -
SENet系列之SKNet
一顿火锅,足以忘却暂时的不愉快。闲谈现在感觉每天都有新的东西需要学习,今天学习这个,明天学习那个。我觉得这样非常不好,学习什么都是在表面游走,不会有一个好的成果。具体怎么解决这个问题,我还不是很清楚,有建议的小伙伴欢迎留言交流啊????。前言SENet:Paper: https://arxiv.org/abs/1709.01507Code: https://github.com/hujie-frank/SENetSKNet:Paper: https://arxiv.org/abs/1903.原创 2021-11-12 21:20:05 · 2914 阅读 · 2 评论 -
小样本学习和元学习基础知识
小样本学习和元学习基础知识人工智能最终依赖于大数据中学习。很难用很少的数据快速概括一个模型。相反,人类可以快速应用他们过去学到的东西来学习新事物。一个重要的方向是缩小人工智能与人类之间的差距。通过有限数据进行学习。少样本学习(few-shot learning)深度学习是data hunger的方法, 需要大量的数据,标注或者未标注。少样本学习研究就是如何从少量样本中去学习。拿分类问题来说,每个类只有一张或者几张样本。少样本学习可以分为zero-shot learning(即要识别训练集中没有出现过原创 2021-09-30 23:51:47 · 2105 阅读 · 1 评论 -
带你读论文系列之计算机视觉--SENet
带你读论文系列之计算机视觉–SENet闲谈总有那么瞬间思念远方的故人。八月十五中秋节,让我们放下繁忙工作,回家与老人团圆举杯共餐。这是我第一次没有在家过中秋,感觉也还行。现在节日没有什么节日气氛,最重要的家人团聚。各位小可爱们,中秋佳节,愿你快快乐乐,开开心心;健健康康,轻轻松松;团团圆圆,恩恩爱爱;和和美美,红红火火!❤️前言论文:Squeeze-and-Excitation Networks代码一个可嫁接/整合的Block ????Momenta在ImageNet2017挑战赛中夺冠的网原创 2021-09-21 00:14:12 · 522 阅读 · 2 评论 -
带你读论文系列之计算机视觉--DenseNet
带你读论文系列之计算机视觉–DenseNet情若能自控,我定会按捺住我那颗吃货的心。闲谈今天听了师兄申请博士的经验。第一是感觉历程很心累,压力也很大;二是成功后很喜悦;三是成果很重要,其次是关系,努力和运气。漫长的时间等待与艰辛的的经历。对于现在的我来说,更多的是脚踏实地打好基础,不应该过于急于求成,慢慢来会更快。在一次次的选择后,我需要做到的就是减少自己的后悔。也许每一次的选择并不完美,也有利弊的取舍,收拾好心情又要重新出发。明天太阳????升起,又是美好的一天⛽️。引言论文:Densely原创 2021-09-17 23:28:05 · 536 阅读 · 0 评论 -
带你读论文系列之计算机视觉--Inception V4
带你读论文系列之计算机视觉–Inception V4一直在路上,不是在奔跑,就是在漫步。前言论文:Inception-v4, Inception-ResNet and the Impact of Residual Connections on LearningCNN很强,例如我们的Inception;最近的resnet也很强。那强强联手会怎么样呢?速度方面:残差学习可加快inception收敛;精度方面:残差学习仅带来一小部分提升;提出新模型;提出激活值缩放技巧来训练模型;在2015原创 2021-09-15 17:06:48 · 1171 阅读 · 0 评论 -
带你读论文系列之计算机视觉--GoogLeNet V3
带你读论文系列之计算机视觉–GoogLeNet V3化作天边的一朵云在窗外悄悄看着你。闲谈广东的天气异常热,重庆今日温度28度左右,而广东37度左右。九月的天,让我又进入的夏天????。近期会频繁更新,原因是我假期太懒了,都是之前累积的论文,现在开始整理了。同时,我把相关文档整理一下,放在我的GitHub上,欢迎加星, 欢迎提问,欢迎指正错误, 同时也期待能够共同参与。前言重新思考计算机视觉中的Inception结构。回顾GoogLeNet-V1主要采用了多尺度卷积核、1x1卷积操作、辅助原创 2021-09-13 23:53:14 · 486 阅读 · 1 评论 -
带你读论文系列之计算机视觉--Inception v2/BN-Inception
带你读论文系列之计算机视觉–Inception v2/BN-Inception我们终其一生,就是要摆脱他人的期待,找到真正的自己。–《无声告白》概述论文:Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift回顾GoogLeNetInception-v2结构的改进就是将原来的Inception-v1结构中的55卷积层进行修改,用两个33卷积层代替。Batch Nor原创 2021-09-12 18:50:25 · 454 阅读 · 1 评论 -
带你读论文系列之计算机视觉RCNN
但是这样,我们总是习惯了不愿改变。前言RCNN系列的文章主要是**RCNN,Fast RCNN, Faster RCNN, Mask RCNN, Cascade RCNN,**这一系列的文章是目标检测two-stage算法的代表,这系列的算法精度高,效果好,是一类重要的方法。先来讲解目标检测开山之作R-CNNRich feature hierarchies for accurate object detection and semantic segmentation这是一篇比较早的Object .原创 2021-09-01 08:37:15 · 187 阅读 · 1 评论 -
初识BoTNet:视觉识别的Bottleneck Transformers
初识BoTNet:视觉识别的Bottleneck Transformers杂谈最近,我的思想有点消极,对自己的未来很迷茫,不知道要从事什么,又在担心行业的内卷严重,有几篇论文看完了也没有写文章总结,这也是为什么我有时候不怎么更新的原因。一边否定自己,一边又给自己力量。也许科研道路就是要黑暗中前行,我们需要给自己一束灯光,或做自己的太阳。在消极的时候,我一般会看点书,电视剧或电影,出去散步或者锻炼。人生宝贵,也许有些事情我们无法改变。但如何提升自己却可以由我们自己决定。未来还有无数美好,在等着与更好的你原创 2021-08-27 13:06:17 · 6311 阅读 · 8 评论 -
带你读论文系列之计算机视觉--ResNet和ResNeXt
带你读论文系列之计算机视觉–ResNet和ResNeXtResNet 强!ResNet发布于2015年,目前仍有大量CV任务用其作为backbone(尤其是顶会实验比较),而且当前很多网络都在使用残差模块。Deep Residual Learning for Image Recognitionhttps://arxiv.org/abs/1512.03385代码:pytorch:https://github.com/fastai/fastaitensorflow:https://github原创 2021-08-27 12:46:05 · 2085 阅读 · 0 评论 -
初识 CV Transformer 之Vision Transformer (ViT)
初识 CV Transformer 之Vision Transformer (ViT)请没有征服不了的高山0 回顾Attention Is All You NeedRNN、LSTM时序网络,存在一定的问题:1.记忆长度有限,像RNN记忆时序比较短,后面就提出了LSTM;2.无法并行化,即只有计算完t0时刻才能计算t1时刻,计算效率比较低。Google提出了Transformer,在理论上不受硬件的限制,记忆长度可以无限长,并且可以并行化。Embedding层有什么用?Eembe原创 2021-08-15 16:10:13 · 1568 阅读 · 0 评论 -
语义分割模型之DeepLab系列
语义分割模型之DeepLab系列前言DeepLab系列一共有四篇文章,分别对应DeepLab V1、DeepLab V2、DeepLab V3和DeepLab V3+。DeepLab V1论文题目:Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFs(https://arxiv.org/abs/1606.00915)开源代码:TheLegendAli/DeepLab-Context(原创 2021-08-08 20:48:59 · 1160 阅读 · 0 评论 -
带你读论文系列之计算机视觉--GoogLeNet
带你读论文系列之计算机视觉–GoogLeNet0 闲谈玩起手机,看着电视,所有的计划都被抛之脑后,此时的快乐是深夜不舍睡下的愧疚。我总是想着明天怎么,而有时不知珍惜当下;总想着那些离开的朋友,而对现在不满;总想着如果这样,而不是我做了会如何。这两天反思了一下,我太依赖有人给我一个学习路线,往往自己探索学习发现的能力和勇气被打磨掉了。小可爱,今天的内容有点多,坚持✊,你是最棒哒!1 背景及部分作者论文名称来源“We Need To Go Deeper”是电影《盗梦空间》中的一个表达,它经常出现在原创 2021-07-14 19:15:33 · 385 阅读 · 1 评论 -
带你读论文系列之计算机视觉--VGG
带你读论文系列之计算机视觉–VGG1 卷积和池化卷积卷积只改变图片的深度(深度与卷积核个数相同),不改变图片的深度和高度(padding方式为SAME,即补零)卷积核的作用:input image --> convolution kernel --> Feature map图像处理时。给定输入图像,输入突袭那个中一个小区域中像素加权平均后成为输出图像中的每一个对应像素。即最后feature map中的一个像素值经过卷积核后图片大小计算公式:out_size=(in_size-F原创 2021-07-06 12:50:28 · 851 阅读 · 0 评论 -
带你读论文系列之计算机视觉--FZNet
带你读论文系列之计算机视觉FZNet回顾《带你读论文系列之计算机视觉–AlexNet》Convolutional Network表现好:更大的训练集的可用性,有数百万的标记样本;强大的GPU实现,使训练非常大的模型成为现实;更好的模型正则化策略,如Dropout复杂模型的内部运作和行为,或它们如何取得如此好的性能,仍然没有什么深入了解。你如此优秀,我还不知道你为什么这么优秀。嗯,我必须要了解你一下。「????」背景与作者ZFNet****是Matthew D.Zeiler与Rob F原创 2021-06-25 22:27:53 · 179 阅读 · 0 评论 -
带你读论文系列之计算机视觉--AlexNet
带你读论文系列之计算机视觉–AlexNet少一些功利主义,多一些不为什么的坚持,你将变得异常美丽!加油,小可爱们!背景及作者AlexNet被认为是计算机视觉领域最有影响力的论文之一,它刺激了更多使用卷积神经网络和GPU来加速深度学习的论文的出现。截至2020年,AlexNet论文已被引用超过54,000次。AlexNet参加了2012年9月30日举行的ImageNet大规模视觉识别挑战赛,达到最低的15.3%的Top-5错误率,比第二名低10.8个百分点。TOP5错误率:即对一个图片,如果概率前原创 2021-06-22 23:17:26 · 549 阅读 · 2 评论