深度学习
文章平均质量分 74
独鹿
啊哈
展开
-
YOLOX安装及训练
官方git:https://github.com/Megvii-BaseDetection/YOLOX.git步骤基本是按官方说明进行的。cuda10.21.创建虚拟环境:conda create -n yolox python=3.72.安装torch(先进入yolox环境:conda activate yolox)pip install torch==1.7.1 torchvision==0.8.2 torchaudio==0.7.23.安装YOLOXgit clone原创 2021-07-23 11:28:30 · 8305 阅读 · 22 评论 -
注意力模型学习一
文献参考list1.自然语言处理中的Attention Model:是什么及为什么2.深度学习中的注意力机制(2017版) 3.Attention注意力机制–原理与应用4.关于《注意力模型--Attention注意力机制》的学习5.A neural attention model sentence summeration(一篇关于生成摘要的am模型文章)...原创 2019-07-18 14:25:51 · 141 阅读 · 0 评论 -
tf.app.run()的作用
作用:在主程序中执行启动tensorflowif __name__ == "__main__": tf.app.run() 在执行启动之前要解析以tensorflow方式定义的变量,而tensorflow的变量定义有4种类型,整型,字符,浮点,布尔。声明格式:tf.app.flags.DEFINE_string('str_name', 'default_value',"descriptio...原创 2018-05-08 14:48:16 · 7039 阅读 · 1 评论 -
tf.shape()和getshape的区别
参考资料:https://blog.csdn.net/chenxieyy/article/details/530207601,tf.shape(a)和a.get_shape()比较 相同点:都可以得到tensor a的尺寸 不同点:tf.shape()中a 数据的类型可以是tensor, list, array a.get_shape()中a的数据类型只能是...原创 2018-05-08 10:08:53 · 5014 阅读 · 0 评论 -
目标识别代码解读整理
end_points用来记录每一层的特征图,各层的特征图大小是不一样的end_points[end_point] = net 特征层数记录for i, layer in enumerate(feat_layers):i表示第几个特征层,layer表示特征层的名字把各层的特征图数据取出来end_points[layer]把所有目标类别取出来num_classesanchor的尺寸列表,有6个尺寸(莫...原创 2018-05-08 00:38:28 · 1723 阅读 · 0 评论 -
二值网络记录
1. 所有参数都是+-12. 单精度浮点表示32,二值表示13. 训练基于梯度下降,二值无法算梯度,不能更新权重4. 向前权重用二值,更新用单精度,这样会收敛到满意值5. 二值过程:直接通过x_b=sing(x)正负二值6. 通过随机数概率来二值7. 二值梯度计算,放松二值函数,【-1,1】的梯度为1,其余为08. 训练:前向对权重二值,反传用单精度...原创 2018-03-20 12:46:52 · 256 阅读 · 0 评论 -
残差网络简单记录
实验和理论证明,神经网络深度和宽度是表示网络的两个核心因素,但深度比宽度在增加复杂性方面更有效(VGG模型)。但随着网络加深,训练会越来越麻烦,误差信号的多层反向会引起梯度消失(回传过程中训练误差及其微弱),和梯度爆炸(梯度过大,导致训练出现Nan)现象。目前概述梯度这些现象的策略有:权重初始化策略,批量规范化策略。但随着网络加深,训练误差不降反而升高了,(一般线性能求得好的解,那么它对应的深层网...原创 2018-03-19 16:29:43 · 728 阅读 · 0 评论 -
Network in Network记录
1. 模型介绍:新加坡国立大学lv实验室提出的,异与传统卷积神经网络。2. 特点:与其他神经网络相比,最大差异在与用多层感知机(多层全连接和非线性函数组合)代替了先去卷积进行层间映射。线性卷积层的复杂度有限,非线性映射增加网络卷积层的非线性能力,使上层特征有更多复杂性和可能性的映射到下层。思想被残差网络借鉴。同时摒弃了全连接层作为分类层的传统,转而用全局汇合操作,最后一层有C个特征图,...原创 2018-03-19 15:20:23 · 197 阅读 · 0 评论 -
VGG_net
Vgg网络:牛津大学研究组提出,2014年imagenet竞赛定位任务第一名,分类任务第二名。特点:1.泛化性能良好。在imagenet的预训练模型被常用了提取特征。 2.使用了小卷积核,保持输入大小,为了增加网络深度时确保各层输入大小随深度增加而不极具减小。 3.网络卷积层通道数一次3---64---128---256---512逐渐增加结构:1. 卷积核都用3*3的小...原创 2018-03-19 12:56:10 · 756 阅读 · 0 评论 -
AlexNet网络
1.全连接层占了绝大参数。总参数由60M(1M=10^12)2.网络结构:5层卷积+3层全连接+损失层3.网络输入为27*27*3,最终输出为所以类别的概率分布。4.卷积核总共由3种,分别是11*11,5*5,3*3,其中3*3的用了3次5.卷积滑动:第一次卷积滑动4,其余都为16.池化:核都为3*3,滑动都为2*27.神经元大小分别经过了:55---27---13---6---18.输出维度分别...原创 2018-03-19 12:14:45 · 223 阅读 · 0 评论 -
caffe 跑mnist 数据集
1.下载数据集:可以通过脚本下载也可以直接到官网下载了放到data/mnist下,然后解压2.设置用cpu训练lenet_solver.prototxt:# solver mode: CPU or GPUsolver_mode: CPU3.检查数据集名字和被引用的时候是否一致(有时名字不一样需要手动修改,下载下来的数据名字中是点,引用的时候写着-):creat原创 2016-11-24 16:15:06 · 6764 阅读 · 9 评论 -
caffe 编译相关bug
参考解决https://m.douban.com/note/568788483/原创 2016-11-28 13:02:46 · 646 阅读 · 0 评论 -
caffe run cifar10 dataset 问题及解决办法
在顺利跑完mnist数据集后跑cifar10,结果提示需要opencv ,但事实上opencv已经配置过了,问题所在安装cmake时缺少部分依赖包:libarchive,wget解决办法:删了之前安装的,重新一步步安装依赖。原创 2016-11-29 20:54:14 · 276 阅读 · 0 评论 -
centos 安装caffe 各种坎坷
参考资料:http://www.tuicool.com/articles/vimi6vhttp://www.linuxdiyf.com/linux/15610.htmlmake编译和cmake编译联系及区别http://www.cnblogs.com/taopanpan/p/4263951.html.build_release/tools/caffe: er原创 2016-12-01 18:16:44 · 414 阅读 · 0 评论 -
论文品读之-极限学习机在手写体数字识别中的应用
模式识别部分原创 2016-08-25 10:39:18 · 1164 阅读 · 1 评论 -
jupyter 学习
一ipython交互接口有的浏览器不支持显示,换谷歌或firefox倒入 py文件% 文件名原创 2017-03-05 15:05:19 · 290 阅读 · 0 评论 -
TENSORFLOW1.0运行之前版本代码报错解决
1报错位置:.tf.scalar_summary('batch_loss', loss)AttributeError: 'module' object has no attribute 'scalar_summary'修改为:tf.summary.scalar('batch_loss', loss)原因:新版本做了调整2.AttributeError: 'module' object has原创 2017-04-13 11:02:27 · 12840 阅读 · 8 评论 -
show and tell 代码调试过程遇到的问题及解决
1.tensorfllow1.0接口改变造成的报错,对应将接口改过来2.调试模型时可视化出问题: 由于模型设置参数和模型解释器不一而造成可视化出问题,通过修改模型保持一致完成原创 2017-04-18 15:16:39 · 1985 阅读 · 1 评论 -
showand tell笔记
原创 2017-04-25 14:17:20 · 1290 阅读 · 0 评论