![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
leeboosunny
这个作者很懒,什么都没留下…
展开
-
多任务学习
简介: 多任务学习(Multitask learning)是迁移学习算法的一种,迁移学习可理解为定义一个一个源领域source domain和一个目标领域(target domain),在source domain学习,并把学习到的知识迁移到target domain,提升target domain的学习效果(performance)。概念解析:多任务学习(Multi-task le原创 2018-01-12 16:35:45 · 38139 阅读 · 0 评论 -
PyTorch入坑---初记
1.Pytorch简介Pytorch是Facebook 的 AI 研究团队发布了一个基于 Python的科学计算包,旨在服务两类场合:替代numpy发挥GPU潜能(在线环境暂时不支持GPU)一个提供了高度灵活性和效率的深度学习实验性平台2.Pytorch特点及优势2.1 Pytorch特点PyTorch 提供了运行在 GPU/CPU 之上、基础的张量操作库;可以内置的神经网络库;原创 2018-02-04 11:41:07 · 5517 阅读 · 0 评论 -
深度学习框架caffe 和 tensorflow
深度学习框架caffe 和 tensorflow原创 2018-01-19 17:55:09 · 1448 阅读 · 0 评论 -
正则化技术(分类识别):PatchShuffle Regularization 论文阅读笔记
PatchShuffle Regularization论文下载:https://arxiv.org/abs/1707.07103 论文详细信息: 过拟合问题发生的本质是模型更多的去学习噪声而不是捕捉潜在的存在于数据中的Varations关键因素,即由于缺少数据的多样性或者模型过于复杂使得模型的学习被不相关的局部信息所误导,学习了没用的噪声数据,考虑人的机制,即观察图像整体结构不变情况下,局部原创 2018-01-08 16:49:50 · 2311 阅读 · 0 评论 -
数据增强(检测,分类,识别):1708.Random Erasing Data Augmentation 论文笔记
Random Erasing Data Augmentation 论文下载地址:https://arxiv.org/abs/1708.04896详细信息: 论文资源代码: https://github.com/zhunzhong07/Random-Erasing论文解读: 首先,为了增强模型的泛化的性能,一般的手段有数据增强和正则化方法(如dropout,BN),而用于数原创 2018-01-08 11:26:06 · 10160 阅读 · 0 评论 -
阅读论文:AlexNet
AlexNet:ImageNet Classification with Deep Convolutional Neural Networks论文信息: 训练了一个大规模的深度卷积神经网络来将ImageNet LSVRC-2010比赛中的包含120万幅高分辨率的图像数据集分为1000种不同类别。在测试集上,本文所得的top-1和top-5错误率分别为37.5%和17.0%,该测试结果大大原创 2018-01-15 21:20:26 · 427 阅读 · 0 评论 -
阅读论文:1312.ICLR-Network In Network
Network In Network论文信息: 论文细节: 一般来说,所要提取的特征是高度非线性的,在传统的 CNN 中尝试使用超完备的滤波器来提取各种潜在的特征,具体来说,当需要提取某个抽象特征时,我们初始化大量的滤波器去提取尽可能多的特征,将我们期望的特征也覆盖到。如此产生的结果是网络结构复杂,参数空间过大。作者利用 Mlpconv 和 全局平均 pooling 建立了 N原创 2018-01-16 11:38:09 · 393 阅读 · 0 评论 -
阅读论文:1502.InceptionV2-BN
参考: 论文地址:https://arxiv.org/pdf/1502.03167.pdf 详细说明:http://blog.csdn.net/hjimce/article/details/50866313 理解:http://blog.csdn.net/shuzfan/article/details/50723877 效果为什么好:https://www.zhihu.com/ques原创 2018-01-24 12:08:23 · 498 阅读 · 0 评论 -
CNN及主要模型框架的技术演进
卷积神经网络的要点就是局部连接(Local Connection)、权值共享(Weight Sharing)和池化层(Pooling)中的降采样(Down-Sampling)。其中,局部连接和权值共享降低了参数量,使训练复杂度大大下降,并减轻了过拟合。同时权值共享还赋予了卷积网络对平移的容忍性,而池化层降采样则进一步降低了输出参数量,并赋予模型对轻度形变的容忍性,提高了模型的泛化能力。卷积神经原创 2018-01-15 22:39:20 · 2157 阅读 · 0 评论 -
1409.GoogLeNet-Going deeper with convolutions
paper:链接 论文信息: inception V1(也称GoogLeNet)是2014年Christian Szegedy提出的一种全新的深度学习结构,在这之前的AlexNet、VGG等结构都是通过增大网络的深度(层数)来获得更好的训练效果,但层数的增加会带来很多负作用,比如overfit、梯度消失、梯度爆炸等。inception的提出则从另一种角度来提升训练结果:能更高效的利用计算资原创 2018-01-23 11:43:15 · 338 阅读 · 0 评论 -
深度学习框架技术解析及caffe实战一些总结
深度学习框架技术解析及caffe实战总结对应的PDF文件:下载原创 2017-12-29 18:51:32 · 492 阅读 · 0 评论 -
linux-Caffe技术总结
写python脚本:#!/usr/bin/env python写bash脚本:#!/bin/bash 或#!/usr/bin/env sh 其后常加set e 对于深度学习网络的训练任务中一般会需要三组数据库: 训练集,验证集及测试集。这里训练集中主要是用于训练网络,而验证集中主要是在训练网络中验证测试部分网络超参数,而测试集是用于考察网络的精度。因此,虽然三组数据集都是带标签的数据集,但训练原创 2017-12-29 18:44:51 · 882 阅读 · 0 评论 -
PyTorch:LeNet实现
In [5]:import torchimport torchvisionfrom torch.utils.data import DataLoaderfrom torchvision.datasets import MNISTfrom torchvision import transformsfrom torch.autograd import Variablefrom torch原创 2018-02-04 11:44:21 · 2903 阅读 · 2 评论