caffe
RG--G
这个作者很懒,什么都没留下…
展开
-
caffe初总结
一、数据预处理(LMDB、LEVELDB)(注:虽然lmdb的内存消耗是leveldb的1.1倍,但是lmdb的速度比leveldb快10%至15%,更重要的是lmdb允许多种训练模型同时读取同一组数据集。)convert_imageset 【FLAGS】ROOTFOLDER(图片路径) LISTFILE(图片对应。txt文件) DB_NAME(生成的DB文件)将在指定路径生成train_lmd...原创 2018-05-23 20:39:30 · 151 阅读 · 0 评论 -
Fine-tuning 方式 及 与数据集的关系?
一般情况下,我们用深度学习网络,做自己的任务时,由于数据集不够大、调参能力有限等问题,都会选择Fine-tuning的方式。(简单理解为,copy预训练模型的权重)参考其他,发现有三种方式:需考虑两个因素:1. 数据集的大小;2.当前数据集与预训练数据集的相似性则有:1)新数据较小,与原数据相似性高,则直接基于网络训练线性分类器;2)新数据较大,与原数据相似性高,直接可以pretrained mo...原创 2018-05-23 21:51:12 · 1025 阅读 · 1 评论