自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

zzmmjj的博客

走下乡寻找哪有花香

  • 博客(17)
  • 资源 (3)
  • 问答 (1)
  • 收藏
  • 关注

原创 【深度学习】yolo2目标检测 object detection从原理到实践

yolo2目标检测 object detection从原理到实践本文主要介绍经典的目标检测算法yolo2的原理以及对应实现,实现地址见github:https://github.com/mjDelta/yolo2-keras。觉得实现效果不错的同学,欢迎star,fork,follow。原理部分笔者觉得要理解yolo2的原理,最主要理解anchor box的概念以及作用,所以整篇博...

2018-06-07 10:51:21 1477 1

原创 【深度学习】Depthwise Sparable Convolution(Xception的核心模块)

Depthwise Separable Convolution1.简介Depthwise Separable Convolution 是谷歌公司于2017年的CVPR中在论文”Xception: deep learning with depthwise separable convolutions”中提出。2.结构简介对输入图片进行分通道卷积后做1*1卷积。结构如下图: 举例

2018-01-28 15:12:44 1600

原创 【深度学习】tensorflow加载VGG16的网络结构和模型参数

文件介绍synset.txt:标签列表 vgg16-20160129.tfmodel:pre-trained vgg16的网络结构和结点参数定义输入placeholderimages = tf.placeholder("float", [None, 224, 224, 3])加载模型with open("model/vgg16-20160129.tfmodel", mode='rb') as f:

2017-12-08 15:25:23 5153

原创 【深度学习】初始化笔记

He Initialization 用在使用ReLu作为激活函数的神经网络中。 初始化方式:np.random.randn((layer_dims[i],layer_dims[[i-1]))*np.srqt(2./layer_dims[i-1])

2017-09-28 16:25:02 541 2

原创 【Linux】安装Mysql,Navicat以及MySQLdb

1.安装Mysql安装Mysql服务器sudo apt-get install mysql-server安装Mysql客户端sudo apt-get install mysql-client2.安装Navicat1.下载navicat110_mysql_en.tar.gz 2.直接解压,无需其他操作 Navicat的启动方式为 ./start_navicat,若在终端输入没有反应,解决方案如下

2017-08-19 17:46:03 382

原创 【深度学习】Tensorflow模型保存与恢复

tf.train.Saver()的定义与使用Saver对象:用于在tf中保存,恢复Session 定义model_path="/tmp/model.ckpt"saver=tf.train.Saver()Saver保存操作:saver.save(sess,model_path)save_path=saver.save(sess,model_path)Saver恢复操作:saver.restore(

2017-07-20 10:16:20 782

原创 【深度学习】GANs与DCGAN

GANsGANs(Generative Adversarial Networks),生成对抗网络,由Ian Goodfellow 提出。 Yann Lecun评价“the most insteresting idea in the last 10 years in ML”。下面以图片识别来简单解释一下GANs的博弈过程。 GANs同时训练两个网络。第一个网络记作判别器(Discriminator

2017-06-11 21:04:14 2439

原创 【深度学习】反卷积(transposed convolution)介绍

反卷积与卷积反卷积,顾名思义是卷积操作的逆向操作。为了方便理解,假设卷积前为图片,卷积后为图片的特征。卷积,输入图片,输出图片的特征,理论依据是统计不变性中的平移不变性(translation invariance),起到降维的作用。如下动图: 反卷积,输入图片的特征,输出图片,起到还原的作用。如下动图: 我们知道卷积结合池化的降维作用,将神经网络推向深度学习,开启神经网络

2017-06-05 20:13:40 18597 4

原创 【数据结构与算法】[hihoCode] #1015 : KMP算法(解决Time Limit Exceeded)

博主在做hihoCode的#1015 : KMP算法时,用了传统的KMP算法,但是一直报错“Time Limit Exceeded ”,网上查询很久,不断修改代码,最终Accepted。所以记录其中最关键部分,以备大家交流~题设求,匹配串中有多少个模式串?传统KMP是返回模式串在匹配串中的位置,下面进入正题,怎样利用KMP算法的思想(匹配串永不回溯)?正解是求next数组时,增加一位。如图所示:

2017-05-29 17:42:41 517

原创 【数据清洗】数据异常处理之泰尔森回归

数据异常的影响数据异常会导致拟合的曲线表现欠佳,下面是用线性回归进行拟合的对比示意图: 数据解释:生成100个线性函数值,取前五个为异常点实现代码如下:# -*- coding: utf-8 -*-"""Created on Sun May 21 20:10:14 2017@author: ZMJ"""import numpy as npfrom sklearn.linear_mod

2017-05-21 20:07:26 2044

原创 【深度学习】VGGNet的tensorflow实现code

在上一篇博客中对VGGNet论文做了学习笔记以及网络结构记录,链接见此http://blog.csdn.net/qq_29340857/article/details/71440674,本篇博客的代码都是基于上一篇的理解写的,话不多说,code如下。输入数据集定义(因为使用随机梯度下降,所以使用placeholder定义训练数据): tf_train_data=tf.placeholder(tf.

2017-05-17 13:40:37 7479 2

原创 【深度学习】VGGNet学习笔记

本文为笔者学习“VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION”的笔记记录,主要总结网络结构和网上没有说明到的一些细节问题。 VGG论文下载链接:VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITIONCONVNET CON

2017-05-09 11:41:20 2889 1

原创 【CS231n】Lecture 6:Training Neural Networks,Part 2

CS231n系列课程笔记:作为本人的笔记记录,并无商用用途 CS231n:http://cs231n.stanford.edu/参数更新(Parameter Update) 本文参数更新主要针对神经网络中反向传播过程中weights和biases的更新方式做的笔记。 SGD 缺点:水平方向平缓,垂直方向陡峭时,SGD容易发生抖动,找到最优解的时间最长参数更新公式: Moment

2017-05-07 18:44:26 896

原创 【CS231n】Lecture 5:Training Network,Part I

CS231n系列课程笔记:作为本人的笔记记录,并无商用用途 CS231n:http://cs231n.stanford.edu/关于训练神经网络的误解: 1.ConvNets needs a lot of data to train!实际做法:利用Image data训练网络,利用本地数据微调网络 2.Infinite compute.实际:有限的计算能力当前进度:Mini-Batch

2017-05-02 16:45:31 558

原创 【深度学习】python用RNN中LSTM进行正弦函数拟合

深度学习框架:Tensorflow 0.8.0 Python:2.7.6关于LSTM的基础理解参考牛津大学的机器学习视频:Lecture 11 RNN&&LSTM, 系列课程目录:Machine Learning: 2014-2015 本文主要从具体的tf代码实现角度来进行预测。 数据的两种输入模型: ①data和label是同一个变量,整个模型相当于自回归(本文先演示第一种)

2017-04-28 13:43:26 4470 2

原创 【深度学习】RNN中梯度消失的解决方案(LSTM)

上个博客里阐述了梯度消失的原因,同时梯度消失会造成RNN的长时记忆失效。所以在本博客中,会阐述梯度消失的解决方案:①梯度裁剪(Clipping Gradient)②LSTM(Long Short-Term Memory)。梯度裁剪(Clipping Gradient) 既然在BP过程中会产生梯度消失(就是偏导无限接近0,导致长时记忆无法更新),那么最简单粗暴的方法,设定阈值,当梯度小于阈值时,

2017-04-26 11:50:25 18984 4

原创 【深度学习】深度学习中RNN梯度消失

RNN中梯度消失的分析

2017-04-23 23:17:07 7569

WGAN with gradient penalty

WGAN with gradient penalty

2021-04-13

E(n) Equivariant Graph Neural Networks

E(n) Equivariant Graph Neural Networks

2021-04-13

unet 论文,pdf

unet论文,用于医学图像分割。可用于细胞分割unet论文,用于医学图像分割。可用于细胞分割

2018-01-08

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除