自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(35)
  • 资源 (3)
  • 问答 (3)
  • 收藏
  • 关注

转载 caffe Batchnorm使用

目录一、简介二、网络分析三. 理论知识:CNN 网络中的 Batch Normalizationhttps://blog.csdn.net/sunbaigui/article/details/50807398一、简介如果将googlenet称之为google家的inception v1的话,其Batch Normalization(http://arxiv.org/p...

2019-11-29 17:17:00 282

转载 tensorflow 之目标检测(ssd)

https://zhuanlan.zhihu.com/p/28867241目录1.预设框2.分类预测3.回归预测4.下采样特征层5.损失函数1.预设框2.分类预测3.回归预测4.下采样特征层5.损失函数【完毕】...

2019-11-29 00:41:31 197

原创 tensorflow 之 tfrecoder

目录1.定义类型2.写3.读4.显示5.原始代码5.1写5.2读5.3显示https://blog.csdn.net/miaomiaoyuan/article/details/568653611.定义类型2.写3.读4.显示5.原始代码5.1写5.2读5.3显示【完毕】...

2019-11-28 00:48:56 129

原创 tensorflow之正则化

https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapterIndex=4&sectionIndex=27

2019-11-27 23:44:31 103

原创 tensorflow之droout

https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapterIndex=4&sectionIndex=25

2019-11-27 23:33:09 193

原创 tesoirflow之学习率衰减

目录1.学习率衰减的函数2.导入数据3.定义模型4.定义loss和acc5.定义优化器6.优化模型7.结论【学习率衰减,是因为学习率太大,开始震荡了,因此降低学习率,可以加速收敛】1.学习率衰减的函数2.导入数据3.定义模型4.定义loss和acc5.定义优化器6.优化模型7.结论【学习率衰减,是因为学习率太大...

2019-11-27 23:31:08 178

原创 tensorflow 之 数据增强

目录1.测试数据增强1.1图像放缩1.2截取1.3翻转1.4旋转1.5亮度、对比度。颜色1.6综合2.实际训练中使用2.1增强数据2.2构建模型2.3训练模型2.4对比试验,如果不做增强的效果。2.5结论https://tianchi.aliyun.com/course/courseConsole?courseId=198&chapt...

2019-11-27 23:22:41 968

原创 tensorflow 之 bn - keras

目录关于karas的修改:1.BN的好处1.1尽快收敛1.2可以设置较大的学习率1.3初始化要求不严格1.4可能会给与更好的结果2.keras中BN的修改点2.1全连接层2.2卷积层3.全部代码4.训练结果差别train without bn(下图)train_with_bn(下图)5.全部代码:​关于karas的修改:https:/...

2019-11-27 22:56:05 1055

原创 tensorflow之googlenet

https://tianchi.aliyun.com/course/courseConsole?spm=5176.12282070.0.0.2a012042piZFJv&courseId=198&chapterIndex=4&sectionIndex=14思路清晰,以后再补充:1.加载数据2.定义模型3.训练...

2019-11-27 00:13:51 163

原创 tensorflow之VGG

目录1.导入数据2.定义模型3.训练模型思路很清晰,以后抽空再写。1.导入数据2.定义模型3.训练模型【完毕】

2019-11-26 23:59:11 157

原创 tensorflow之slim

【注意要多训练几次,才能看到趋势】目录1.加载数据2.建立模型3.训练模型1.加载数据2.建立模型3.训练模型【完毕】

2019-11-26 23:47:38 108

原创 tensorflow 之 keras

目录今晚的模型,刚开始没有收敛,原因:1.keras.layer中Maxpooling2D,而不是Maxpool,虽然我现在也不知道有啥区别。附件,全部代码:1.加载数据1.1可视化数据1.2预处理数据2.建立模型2.1可视化模型2.2保存模型2.3显示模型3.训练模型4.评估模型5.预测图像今晚的模型,刚开始没有收敛,原因:1.k...

2019-11-26 22:46:54 192

原创 tensorflow之 alenet cifar10

目录本文训练的一个难点:1.数据归一化2.动量优化会更好一些3.要训练充分,本文训练3个epoch,准确率为69%,训练6个epoch,准确率为85%。附录:全部代码:1.加载数据1.1.可视化数据1.2预处理数据2.建立模型3.训练模型本文训练的一个难点:1.数据归一化2.动量优化会更好一些3.要训练充分,本文训练3个epoch,准...

2019-11-26 00:05:03 180

原创 tensorflow 之 conv pool

目录一种全新的测试函数功能的方法1.加载数据-PIL库的使用2.conv3.pool一种全新的测试函数功能的方法1.加载数据-PIL库的使用2.conv3.pool【完毕】...

2019-11-22 00:19:23 447

原创 tensorflow之tensorboard

目录1.训练不收敛,修改了两个地方1.1loss的输入,应该是不经过activation的。1.2准确率的公式忘记写axis了哈2.全部代码2.1加载数据2.2建立模型3.训练模型4.tensorboard显示主要关注summary的使用。【但是我还是不是很能看懂他的作用】1.训练不收敛,修改了两个地方1.1loss的输入,应该是不经过activatio...

2019-11-21 23:44:18 258

原创 tensorflow 之 mnist

目录需要注意的细节:1.绘制多幅图像,很好的一种思路:2.求最大值3.关于维度的问题4.求准确率的方法5.10分类的最大损失值6.初始值不合适,直接发散。见下图7.全部代码7.1加载数据7.1.1可视化数据7.1.2预处理数据7.2建立模型7.2.1训练前的测试7.2.2训练模型7.2.3训练后的测试7.2.4准确率计算需要注意的...

2019-11-21 00:14:16 142

原创 tensorflow 之多层感知器

目录1.散点图和plot的区别2.对于二维数据,可视化的分类方式。-先计算区域的没一点的权重,绘制等高线图,然后撒点。-思路很好代码:1.加载数据2.尝试回归模型3.建立多层感知器重点:1.散点图和plot的区别2.对于二维数据,可视化的分类方式。-先计算区域的没一点的权重,绘制等高线图,然后撒点。-思路很好代码:1.加载数据...

2019-11-20 00:38:41 212 1

原创 tensorflow-逻辑回归

目录1.python的filter函数2.分类曲线【还没有完全想明白】-但是可视化的思路很好3.tensorflow的高级函数4.很简单的预处理-各个维度单独预处理5.后续为代码5.1加载数据5.2预处理数据5.3建立模型5.4训练前测试模型5.5训练模型【还有一个问题:梯度下降,使用assign-sub】注意使用tensorflow的高级函数1...

2019-11-19 23:13:22 124

原创 tensorflow多项目回归

目录tensorflow自己写的话,注意两点:1.参数更新2.维度运算,防止广播流程:1.加载数据2.建立模型3.训练前分析模型4.单次训练模型5.批量训练模型tensorflow自己写的话,注意两点:1.参数更新2.维度运算,防止广播流程:1.加载数据2.建立模型3.训练前分析模型4.单次训练模型...

2019-11-17 17:57:18 127

原创 TensorFlow之线性回归

目录1.导入数据2.建立模型4.训练模型4.1训练前4.2只训练一次4.3训练1.导入数据2.建立模型3.定义loss4.训练模型4.1训练前4.2只训练一次4.3训练【完毕】...

2019-11-17 13:09:07 138

转载 R-FCN-加速

https://blog.csdn.net/u014380165/article/details/72848254

2019-11-11 09:19:06 99

原创 batchnorm

https://blog.csdn.net/jiruiYang/article/details/77202674https://www.jianshu.com/p/cb8ebcee1b15https://blog.csdn.net/lujiandong1/article/details/53385092https://www.cnblogs.com/hrlnw/p/7227447.ht...

2019-11-09 01:06:43 91

转载 batchnorm解读

转自:https://blog.csdn.net/qq_25737169/article/details/79048516目录第一节:Batchnorm主要解决的问题1.1 Internal Covariate Shift1.2 covariate shift第二节:Batchnorm 原理解读第三节:Batchnorm源码解读第四节:Batchnorm的优...

2019-11-07 11:02:35 852

转载 mobilenev2_part

https://yinguobing.com/bottlenecks-block-in-mobilenetv2/MobileNets的核心Separable Convolution可以在牺牲较小性能的前提下有效的减少参数量[1]。但是它也存在局限,表现为Depthwise卷积的Kernel数取决于上一层的Depth,无法随意改变。MobileNetV2克服了这一局限[2]。扩增输入通道数...

2019-11-06 23:46:46 141

转载 caffe layer configure

https://blog.csdn.net/ws_20100/article/details/49184037前言层结构,是神经网络(Neural Networks)建模和计算的最基本单元。由于神经网络有不同的层结构,不同类型的层又有不同的参数。所以,对Caffe的每一层配置都不一样,而层结构和参数都预先定义在prototxt文件中,在此,我们对最新版Caffe模型的层结构做一个简要的总结。...

2019-11-05 23:25:19 122

转载 caffe train test prototxt 区别

https://blog.csdn.net/fx409494616/article/details/53008971在刚开始学习的时候,觉得train_val.prototxt文件和deploy.prototxt文件很相似,然后当时想尝试利用deploy.prototxt还原出train_val.prototxt文件,所以就进行了一下对比,水平有限,可能很多地方说的不到位,希望大神们指点批评~...

2019-11-05 23:22:17 409

转载 tensorflow 转 caffe(6)

搜集了一些资料;连接:https://www.cnblogs.com/Peyton-Li/p/10797002.html最近由于要将训练好的模型移植到硬件上,因此需要将TensorFlow转为caffe模型。caffe模型需要两个文件,一个是定义网络结构的prototxt,一个是存储了参数的caffemodel文件。只要生成这两个文件,caffe模型就算转好了。在模型转换的过程中,...

2019-11-05 22:59:27 604

转载 tensorflow 转 caffe(5)

其中的坑总结:https://www.cnblogs.com/unclelin/p/6984436.html在做tensorflow模型转caffe模型时,遇到了几个坑。其中之一就是caffe的padding方式和tensorflow的padding方式有很大的区别,导致每一层的输出都无法对齐,让我一度怀疑转换模型的代码是错的。卷积操作输出的形状计算公式是这样的:output_shap...

2019-11-05 22:35:56 134

转载 tensorflow 转 caffe(4)

转自:https://blog.csdn.net/jiongnima/article/details/78435500在笔者的上一篇博客中,提到了如何从tensorflow框架下提取出模型参数并转化为caffe框架下的模型参数,并在最后生成了一个1.1GB的.prototxt格式的参数文件,该文件里面主要记录了网络架构以及各层对应的参数。可是我们在使用caffe进行网络前传得到结果的时候,是需...

2019-11-05 22:29:27 551

转载 tensorflow 转 caffe(3)

转自:https://blog.csdn.net/jiongnima/article/details/78382972#comments在前两期专栏tensorflow2caffe(1)和tensorflow2caffe(2)中,笔者向大家介绍了caffemodel文件类型下的参数架构和如何取出tensorflow框架下训练参数。在本期中,笔者将向大家阐述,如何去将tensorflow框架下训...

2019-11-05 22:27:54 132

转载 tensorflow 转 caffe(2)

转自:https://blog.csdn.net/jiongnima/article/details/78326515经过一段时间,笔者又回来了!从2017年7月开始,笔者结束了研一繁重的考试月任务(因为平常不常上课,突击考试大家懂的),然后就进入了研二生涯。在七八月笔者就开始了自己的课题实验(由于太忙累坏了身体,先是眼睛不太好,然后又犯了胃病被迫去做胃镜,在此深切提醒各位,工作的...

2019-11-05 22:23:34 140

转载 tensorflow 转 caffe(1)

转自:https://blog.csdn.net/jiongnima/article/details/72904526在本文正式开始之前,笔者要先和各位读者朋友们道个歉。因为身为研一小白的笔者实在身不由己,除了各种任务之外,还要应付繁忙的课程,忙于各种考试像一只咸鱼。因此耽误了博文的撰写,对不起各位读者朋友,笔者在忙完6月进入研二之后一定再接再厉。下面开始干货~本篇还是一个插播的博客...

2019-11-05 22:21:01 167

原创 caffe 测试 输入图像格式

目录原理:cv2 与 caffe.io.load_image()之间的转换:caffe的输入要求案例opencv版本的:caffe.io.load_img()原理:https://blog.csdn.net/lovelyaiq/article/details/70254583https://codertw.com/%e7%a8%8b%e5%bc%8f%e8...

2019-11-04 23:00:29 1259

原创 caffe mnist inference

目录方式一方式二有两种方式方式一方式二[完毕]

2019-11-04 22:02:59 224

转载 轻量化网络ShuffleNet MobileNet v1/v2 解析

【有些乱码,今晚回去调整:主要讲了mobilenetv1/shufflenetv1/Mobile netv2】转自:https://zhuanlan.zhihu.com/p/35405071随着2012年AlexNet大放异彩,相比以前浅学习方法在ImageNet中top5 error前所未有的下降约10%,CNN已经越来越被人们关注。后续VGG,GoogleNet,ResNet进一步提高...

2019-11-04 09:05:53 528

matplotlib的学习文档

自己学习的matplotlib库的一些代码,其中包含一些关键的注意事项

2018-07-10

阅读英语芯片手册的技巧

 先看看芯片的特性(Features)、应用场合(Applications)以及内部框图。这有助于我们对芯片有一个宏观的了解,此时需要弄清楚该芯片的一些比较特殊的功能,充分利用芯片的特殊功能,对整体电路的设计,将会有极大的好处。比如AD9945可以实现相关双采样(CDS),这可以简化后续信号调理电路,并且抵抗噪声的效果还好。   重点关注芯片的参数,同时可以参考手册给出的一些参数图(如AD9945的TPC 1,TPC2等),这是俺们是否采用该芯片的重要依据。像AD9945,就可以关注采样率(maximum clock rate)、数据位数(AD converter)、功耗(Power consumption)、可调增益范围(gain range)等。   选定器件后,研究芯片管脚定义、推荐的PCB layout,这些都是在硬件设计过程中必须掌握的。所有管脚中,要特别留意控制信号引脚或者特殊信号引脚,这是将来用好该芯片的前提。比如AD9945的SHP、SHD、PBLK、CLPOB等。   认真研读芯片内部寄存器,对寄存器的理解程度,直接决定了你对该芯片的掌握程度。比如AD9945就有4个寄存器:Operation、Control、Clamp Level和VGA gain,对于这些寄存器,必须清楚它们上电后的初始值、所能实现的功能、每个bit所代表的含义这些基本情况。

2013-02-27

stm32启动过程详解

详细解释了32的启动过程 如程序清单一,STM32的启动代码一共224行,使用了汇编语言编写,这其中的主要原因下文将会给出交代。现在从第一行开始分析: ? 第1行:定义是否使用外部SRAM,为1则使用,为0则表示不使用。此语行若用C语言表达则等价于: #define DATA_IN_ExtSRAM 0 ? 第2行:定义栈空间大小为0x00000400个字节,即1Kbyte。此语行亦等价于: #define Stack_Size 0x00000400 ? 第3行:伪指令AREA,表示 ? 第4行:开辟一段大小为Stack_Size的内存空间作为栈。 ? 第5行:标号__initial_sp,表示栈空间顶地址。 ? 第6行:定义堆空间大小为0x00000400个字节,也为1Kbyte。 ? 第7行:伪指令AREA,表示 ? 第8行:标号__heap_base,表示堆空间起始地址。 ? 第9行:开辟一段大小为Heap_Size的内存空间作为堆。 ? 第10行:标号__heap_limit,表示堆空间结束地址。 ? 第11行:告诉编译器使用THUMB指令集。 ? 第12行:告诉编译器以8字节对齐。 ? 第13—81行:IMPORT指令,指示后续符号是在外部文件定义的(类似C语言中的全局变量声明),而下文可能会使用到这些符号。 ? 第82行:定义只读数据段,实际上是在CODE区(假设STM32从FLASH启动,则此中断向量表起始地址即为0x8000000)

2013-02-27

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除