深度模型
冷夏LX
联系方式:微信:dlb940920,qq:1007705026 有事可以联系
展开
-
VGG翻译
题目:用于大规模图像识别的非常深层的网络摘要 在这项工作中,我们调查了在大规模图像识别设置中,卷积神经网络的深度对其精确度的影响。我们的主要贡献是使用具有非常小(3 * 3)卷积滤波器的架构对于增加了深度的网络的全面评估,这表明将通过将深度推到16-19个权重层可以实现对现有技术配置的显著改进。这些发现是我们ImageNet Challenge 2014提交的基础,我们的团队分别在定位和分类...转载 2019-03-10 00:28:31 · 953 阅读 · 0 评论 -
Inception-v4 翻译及总结
v4 地址: https://ask.julyedu.com/question/7711总结参照: https://blog.csdn.net/loveliuzz/article/details/79135583v1 提出组的架构v2 加上bn层v3 分解大卷积核v4 Resnet套一套完美的Inception,不知道后面会不会继续出Inceptionv5——Denstnet,SEne...原创 2019-03-10 11:58:52 · 1252 阅读 · 0 评论 -
图像分类(深度模型)总结
大体来看,深度模型主要分为一下几个方向基础框架像Lenet,Alexnet,Vgg,Prelu都输与这一系列基础框架更关注基本的网络架构,如VGG,全部采用3x3的卷积核,prelu使用新的激活函数和初始化方法。Inception系列(宽网络)从Inception v1 到v4 以及Inception-Resnet系列都属于该架构,或者是一个模型。该系列更关注怎么利用Inception来...原创 2019-03-10 21:18:25 · 7736 阅读 · 0 评论 -
Shufflenet
参考: https://blog.csdn.net/u011974639/article/details/79200559从名字就可以看出意思,混洗,主要实现,先进行1X1的组卷积,然后混洗,对于一个卷积层分为g gg组,1.有g×n个输出通道2.reshape为(g,n)3.再转置为(n,g)4.平坦化,再分回g组作为下一层的输入之后的v2 版本也是基于此思想。...转载 2019-03-10 18:12:33 · 116 阅读 · 0 评论 -
SEnet
论文翻译:https://blog.csdn.net/Quincuntial/article/details/78605507原理:类似于之前的一篇文章,自动学习每个channel 的权重。from torch import nnclass SELayer(nn.Module): def __init__(self, channel, reduction=16): ...原创 2019-03-10 17:37:50 · 1097 阅读 · 0 评论 -
MobileNetV2
参考: https://blog.csdn.net/u011974639/article/details/79199588一时没太看懂,等搞定了回来补转载 2019-03-10 17:20:41 · 1238 阅读 · 0 评论 -
Xception翻译
论文:Xception: Deep Learning with Depthwise Separable Convolutions 论文链接:https://arxiv.org/abs/1610.02357算法详解: Xception是google继Inception后提出的对Inception v3的另一种改进,主要是采用depthwise separable convolution来替换原...转载 2019-03-10 17:20:55 · 732 阅读 · 0 评论 -
MobileNets 翻译
参考 : https://blog.csdn.net/hongbin_xu/article/details/82957426原文: https://blog.csdn.net/just_sort/article/details/79901885一,翻译参考翻译文献:https://baijiahao.baidu.com/s?id=1566004753349359&wfr=spider...转载 2019-03-10 17:21:07 · 1331 阅读 · 0 评论 -
Residual Attention Network 翻译
阅读笔记(paper+code):Residual Attention Network for Image Classification代码链接:https://github.com/fwang91/residual-attention-network深度学习中的attention,源自于人脑的注意力机制,当人的大脑接受到外部信息,如视觉信息、听觉信息时,往往不会对全部信息进行处理和理解,而只...转载 2019-03-10 16:25:33 · 3333 阅读 · 0 评论 -
SqueezeNet 翻译
论文地址:SqueezeNet 论文翻译:木凌 时间:2016年11月。 文章连接:http://blog.csdn.net/u0145407171 引言和动机最近对深卷积神经网络(CNN)的研究集中在提高计算机视觉数据集的准确性。 对于给定的精度水平,通常存在实现该精度水平的多个CNN架构。给定等效精度,具有较少参数的CNN架构具有几个优点: 1. 更高效的分布式训练。服务器之间...转载 2019-03-10 16:04:24 · 745 阅读 · 0 评论 -
DenseNet 翻译
Abstract:最近的成果显示,如果神经网络各层到输入和输出层采用更短的连接,那么网络可以设计的更深、更准确且训练起来更有效率。本文根据这个现象,提出了Dense Convolutional Network (DenseNet),它以前馈的方式将每个层都连接到其他每一层。然而传统L层卷积网络有L连接,而DenseNet的任一层不仅与相邻层有连接,而且与它的随后的所有层都有直接连接,所以该网络...转载 2019-03-10 12:52:06 · 3286 阅读 · 0 评论 -
Inception-V3 翻译
文章作者:Tyan 博客:noahsnail.com | CSDN | 简书翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translationRethinking the Inception Architecture for Computer Vision摘要对许多任务而...转载 2019-03-10 11:40:27 · 624 阅读 · 0 评论 -
PreActResNet 翻译
仅供参考,如有翻译不到位的地方敬请指出。论文地址:Identity Mappings in Deep Residual Networks译文地址:http://blog.csdn.net/wspba/article/details/60750007摘要深度残差网络作为一种极深的网络框架,在精度和收敛等方面都展现出了很好的特性。在本文中,我们分...转载 2019-03-10 11:06:05 · 1746 阅读 · 0 评论 -
ResNet 翻译
仅供参考,如有翻译不到位的地方敬请指出。论文地址:Deep Residual Learning for Image Recognition译文地址:http://blog.csdn.net/wspba/article/details/57074389摘要越深的神经网络训练起来越困难。本文展示了一种残差学习框架,能够简化使那些非常深的网络的训练...转载 2019-03-10 10:37:04 · 775 阅读 · 0 评论 -
PReLU翻译
Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification建议移步: https://blog.csdn.net/happynear/article/details/45440811摘要整流激活单元(整流器)是最先进的神经网络必不可少的。本文从两个方面研究了用于图像分类的...原创 2019-03-10 10:22:32 · 2589 阅读 · 0 评论 -
GoogLeNet翻译
Going Deeper with ConvolutionsAbstractWe propose a deep convolutional neural network architecture codenamed Inception that achieves the new state of the art for class...转载 2019-03-10 09:40:24 · 920 阅读 · 0 评论 -
天池比赛代码
import osimport cv2from PIL import Imageimport numpy as npimport matplotlib.pyplot as plt# import mmcvimport cv2import random#生成数据def gendata_pro(unit_sizes=[2048, 1024, 512], begin_ind=0, ...原创 2019-07-05 13:41:59 · 2113 阅读 · 3 评论