![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习笔记
文章平均质量分 91
eclipSYcn
helloworld
展开
-
module 'pandas' has no attribute 'computation'
若是Anaconda安装的包,更新dask即可 conda update dask原创 2017-08-18 21:20:10 · 7650 阅读 · 3 评论 -
caffe 可视化网络及resnet50结构
http://ethereon.github.io/netscope/#/editor复制prototxt,shift+enter 即可 或者利用caffe/python 中的 draw_net.py。 python draw_net.py –rankdir TB /Users/eclipsycn/Documents/resnet-protofiles-master/ResNet...原创 2018-01-30 10:44:32 · 4620 阅读 · 0 评论 -
CNN的两个弊端
转载自 http://blog.csdn.net/zziahgf/article/details/79177322 CNN 的两个弊端原文 - What is wrong with Convolutional neural networks ?自从Alex Krizhevsky 等论文 ImageNet Classification with Deep Convolu转载 2018-01-30 09:52:12 · 1770 阅读 · 0 评论 -
caffe finetune微调固定权重的方法
结论:若不加param参数的resnet-50进行finetune,所有层还是会进行微调,若不想微调需要在层中加入param{lr_mult: 0}。注意防坑:在train.sh文件中,训练命令,即train命令之后的–weights等参数行间不要夹杂注释内容,否则会不读入注释下一行的–参数。如果发现精度上不去,可能是由于fc层没有加入初始化(或者学习率)的原因。需要w加入xavi原创 2018-01-29 22:21:03 · 2265 阅读 · 0 评论 -
facenet-tensorflow人脸识别
项目地址:https://github.com/davidsandberg/facenetfacenet基于MTCNN的人脸检测和Inception-Resnet-v1的人脸识别网络softmax,center loss 训练结果比triplet loss训练结果好太多,自己训练达到99.0%+-0.006。利用msceleb训练集。一、MTCNN人脸检测待补充二、I原创 2017-12-27 10:53:53 · 6613 阅读 · 7 评论 -
mask rcnn 中 ROI Align及SmoothL1loss
ROI pooling层说起ROI Alignment,就要说道faster-rcnn的ROI pooling, ROIpooling层结构是为了将原图像的rois映射到固定大小的feature map上。而此方法有一些缺点,会带来边缘像素的缺失。回顾ROIpooling。具体caffe层可以观察ROIpooling层解析ROI Align的作用如果roi大小为(7,6...原创 2017-12-22 11:44:13 · 2847 阅读 · 0 评论 -
Resnet-Tensorflow 在Mask-Rcnn 中的结构
阅读Mask-Rcnn代码时,观察resnet结构。 其中重要的有identity_block和conv_block。Identity Block:1*1,3*3,1*1的三层stride=(1,1)卷积,最后直接输出x+input作为输出。def identity_block(input_tensor, kernel_size, filters, stage, block,原创 2017-12-20 16:48:39 · 2045 阅读 · 1 评论 -
目标检测几篇文章
Fast RCNN:目标检测 Fast RCNNSPP-net:共同的问题:原始图片中的ROI如何映射到feature mapRCNN SPP-NET Fast RCNN Faster-RCNNFaster RCNN:Faster RCNN目标检测 Faster RCNN转载 2017-09-15 15:53:31 · 765 阅读 · 0 评论 -
tensorflow-激活函数及tf.nn.dropout
激活函数激活函数(activation function)将神经元计算wTx+bw^Tx+b的结果经过非线性表达映射到下一层。需要可微,激活函数不会改变输入数据维度。sigmoid函数:σ(x)=11+e−x(1)\sigma(x)=\frac{1}{1+e^{-x}}\tag1 将输出映射到(0,1)内,缺点: 软饱和性:取值无穷大时,一阶导数趋于0,容易产生梯度消失。(硬饱和:某阶段一原创 2017-08-26 16:47:40 · 6732 阅读 · 0 评论 -
tensorflow-BatchNormalization(tf.nn.moments及tf.nn.batch_normalization)
批标准化批标准化(batch normalization,BN)一般用在激活函数之前,使结果x=Wx+bx=Wx+b 各个维度均值为0,方差为1。通过规范化让激活函数分布在线性区间,让每一层的输入有一个稳定的分布会有利于网络的训练。优点: 加大探索步长,加快收敛速度。更容易跳出局部极小。破坏原来的数据分布,一定程度上防止过拟合。解决收敛速度慢和梯度爆炸。tensorflow相应API原创 2017-08-26 10:24:40 · 15778 阅读 · 0 评论 -
深度学习第三章-概率与信息论笔记
3.1 为什么要使用概率?3.2 随机变量3.3 概率分布3.3.1 离散型变量和概率质量函数离散型变量的概率分布可以用概率质量函数(probabilit mass function, PMF)描述。3.3.2 连续型变量和概率密度函数连续型随机变量的分布可以用概率密度函数(probability denstity function, PDF)表示。概率密度函数p(x)p(x)并没有直接对特定原创 2017-08-07 14:59:40 · 2985 阅读 · 0 评论 -
深度学习第四章-数值计算笔记
4.1 上溢和下溢下溢(underflow):当接近0的数被四舍五入为0时,发生下溢。例如,我们通常要避免被0(NaN错误)除或避免取0的对数(−∞-\infty)。上溢(overflow):大量级的数字被近似为∞\infty或−∞-\infty。softmax是避免上溢下溢数值稳定的一个办法:softmax(x)i=exp(xi)∑nj=1exp(xj)(1)softmax(x)_i=\fr原创 2017-08-21 11:02:22 · 1812 阅读 · 0 评论 -
深度学习第二章-线性代数笔记
本章主要介绍与深度学习相关的线性代数知识。2.1 标量、向量、矩阵和张量标量 (scalar) 、向量 (vector)、矩阵 (matrix)张量 (tensor) :一般地,一个数组中的元素分布在若干维坐标的规则网格中,称之为张量。转置 (transpose) : 以主对角线(左上到右下)为轴进行镜像操作。将矩阵A\mathbf{A}转置表示为AT\mathbf{A}^\mathbf{T}原创 2017-07-26 11:00:11 · 2216 阅读 · 0 评论 -
windows下运行tensorboard
首先,切换到该目录下C:\ProgramData\Anaconda3\Lib\site-packages\tensorflow\examples\tutorials\mnistshift+右键打开cmd python mnist_with_summaries.py在如下目录生成了train和test文件夹C:\tmp\tensorflow\mnist\logs\mnist_with_summar原创 2017-08-18 21:49:37 · 1144 阅读 · 0 评论 -
couldn’t open CUDA library cupti64_80.dll
windows下,cupit64_80.dll在C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\extras\CUPTI\libx64`为了保险起见,将里面的所有内容(我的文件夹下有两个文件,一个rar,一个dll)移动到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\b原创 2017-08-18 21:23:25 · 1677 阅读 · 1 评论 -
paddle paddle 运行 Fatal Python error: PyThreadState_Get: no current thread
使用paddlepaddle时运行tutorial代码:import paddle.v2 as paddle# Initialize PaddlePaddle.paddle.init(use_gpu=False, trainer_count=1)# Configure the neural network.x = paddle.layer.data(name='x', type=p...转载 2018-03-26 20:44:35 · 4245 阅读 · 1 评论