迁移学习的一点思考

1.小而相似的图像:当目标数据集与基本数据集相比时较小,且图像相似时,建议冻结和训练最后一层。 2.大而相似的图像:当数据集较大且图像相似时,建议微调。 3.小而不同的图像:建议freeze and train(冻结和训练)最后一层,或一些最后一层。 4.大而不同的图像:建议微调。...

2018-11-02 21:23:44

阅读数 59

评论数 0

补码(为什么按位取反再加一):告诉你一个其实很简单的问题

首先,阅读这篇文章的你,肯定是一个在网上已经纠结了很久的读者,因为你查阅了所有你能查到的资料,然后他们都会很耐心的告诉你,补码:就是按位取反,然后加一。准确无误,毫无破绽。但是,你搜遍了所有俯拾即是而且准确无误的答案,却仍然选择来看这篇毫不起眼的文章,原因只有一个,只因为你还没有得到你想要的东西。...

2018-09-07 09:57:20

阅读数 172

评论数 0

深度学习进行分布式训练(模型并行和数据并行优缺点)

深度学习进行分布式训练(模型并行和数据并行优缺点):https://blog.csdn.net/qq_29462849/article/details/81185126

2018-08-26 14:46:39

阅读数 730

评论数 0

注意力机制

注意力机制这两年很火,已经成为深度学习里面的标配了,大大提升了某些应用方面的效果如机器翻译等 核心思想:像人的眼睛一样选择性的重点关注某些对象, 通俗易懂的讲解注意力机制:https://blog.csdn.net/tg229dvt5i93mxaq5a6u/article/details/78...

2018-08-08 17:51:05

阅读数 268

评论数 0

强化学习

介绍强化学习入门最好的一篇文章,讲的通俗透彻:https://blog.csdn.net/revolver/article/details/50177219 更进一步的深入的讲解:http://brightliao.me/2016/12/05/let-machine-play-games/ D...

2018-08-07 16:31:00

阅读数 155

评论数 1

信息熵通俗易懂的例子

转自知乎 https://www.zhihu.com/question/22178202/answer/223017546 本科学的时候是院长教的,当时他说这个东西很有用,也仔细听了没懂什么意思,现在回过头来看,还真有用。 信息熵的定义与上述这个热力学的熵,虽然不是一个东西,但是有一定的联系。...

2018-08-07 10:23:52

阅读数 865

评论数 0

推荐系统相关学习与总结

综述: 推荐系统领域的算法主要有这么几类算法  1、基于内容的推荐算法  2、基于协同过滤的推荐算法 3、基于混合的推荐算法,其他的各种算法基本都是在这几种思想上的变种 基于内容的推荐算法需要计算出每个物品的特征,是本身物品的显性特征(例如文章的类别、文章的关键字、),往往物品的特征我们难以...

2018-08-02 16:14:52

阅读数 57

评论数 0

PCA降维深入理解

网上资料非常多,大部分都是讲先求协方差,协方差怎么求的,但是没有讲为什么要求协方差,为什么要选特征值最大的特征,特征值最大到底代表了什么含义。 简单回忆:         计算协方差到底是选行还是选列呢,记住协方差矩阵是计算不同维度间的协方差,不是两个样本间的,所以我们求协方差的目的就是计算不...

2018-07-31 17:08:24

阅读数 157

评论数 0

tf.train.batch和tf.train.shuffle_batch的理解

capacity是队列的长度 min_after_dequeue是出队后,队列至少剩下min_after_dequeue个数据 假设现在有个test.tfrecord文件,里面按从小到大顺序存放整数0~100 1. tf.train.batch是按顺序读取数据,队列中的数据始终是一个有序的队列, ...

2018-07-17 23:15:07

阅读数 63

评论数 0

boosting,Adaboost,Bootstrap和Bagging的含义和区别

弱分类器:分类效果差,只是比随机猜测好一点。强分类器:具有较高的识别率,较好的分类效果。(在百度百科中有提到要能在多项式时间内完成学习)弱和强更大意义上是相对而言的,并没有严格的限定。比如准确率低于多少就是弱分类器,高于多少是强分类器,因具体问题而定。 1988年,有学者提出是否可以通过一些弱分类...

2018-05-24 14:17:15

阅读数 77

评论数 0

RPN具体生成细节

在这里假设我们想生成100:100、300:300、500:500及1:1、1:2、2:1三种尺寸三种比例的图像,这里要注意100:100的1:2尺寸不是100:200,而是100/√2:100*√2大约71:141,因为同一尺寸的三种比例变化后图像的面积要保存一致假设以原点为矩阵中心点,生成的9...

2018-04-01 21:41:04

阅读数 324

评论数 1

SGD,Momentum,AdaGrad,RMSProp,Adam等优化算法发展历程

各种优化算法层出不穷,看的眼花缭乱,如果不能理清楚其中他们的关系及发展历程,必然是不能完全搞懂这些算法之间的异同

2018-03-06 16:42:29

阅读数 179

评论数 0

深度学习模型训练技巧

博主以前都是拿别人的模型别人的数据做做分类啊,做做目标检测,搞搞学习,最近由于导师的工程需求,自己构造网络,用自己的数据来跑网络,才发现模型训练真的是很有讲究,很有技巧在里面,最直接的几个超参数的设置问题,以前都是听大牛说设置为32、64、128等数,但是到底设置为多少好呢,我今天跑的是一个自己的...

2018-01-10 10:02:20

阅读数 1913

评论数 0

百万英雄

最近思聪哥开始弄的冲顶大会非常的火爆,这对于软件的宣传效果非常的号,今日头条也学过了,西瓜视频势要跟快手等一众小视频软件一争高低,每天都砸入几百万进行活动推广,喜欢褥羊毛的朋友要抓紧了,还可以入场一波,记得填写我的邀请码3AN2W,就可以获得一次复活机会喔,还等什么,赶快行动吧,知识变现的时代来了...

2018-01-08 13:29:58

阅读数 691

评论数 0

TensorFlow Saver类 保存模型与恢复模型

因工程需求,今天想找一下Saver类如何保存部分参数或者是恢复部分参数,一直没找到有效的帖子,所以自己来总结性的写一个吧 常规的保存与恢复如下: saver = tf.train.Saver(tf.trainable_variables(), max_to_keep=3) 定义一个Save...

2018-01-07 18:56:28

阅读数 308

评论数 0

Linux必备知识点

持续更新 man: Manual   意思是手册,可以用这个命令查询其他命令的用法。 pwd:Print working directory   显示当前工作路径。 su:Swith user  切换用户,切换到root用户 cd:Change directory 切换目录 ls:Li...

2018-01-02 15:22:57

阅读数 286

评论数 0

Tensorflow图像处理相关操作

#对图像的处理 import matplotlib.pyplot as plt import tensorflow as tf #读取图像的原始数据 image_raw_data=tf.gfile.FastGFile("./path/to/picture/timg.jpg"...

2018-01-02 15:02:49

阅读数 535

评论数 0

一文教你跑通Faster-Rcnn

第一步因为跑这个代码必须使用GPU进行加速,准备用CPU来跑的话,可以放弃了,安装cuda和cudnn,再安装NVIDIA的显卡驱动(版本一定要对),这方面网上教程非常之多,也有不少坑,仔仔细细一步一步的来是不会有多大问题的,安装完一定要进行一个测试,是否安装成功。测试显卡驱动:$:nvidia-...

2018-01-02 14:04:24

阅读数 545

评论数 0

千万不要用codecogs网站上的公式编辑器来写博客

很久没写博客了,之前写的几篇博客里面的公式都是我辛辛苦苦敲的,可是用的是codecogs网站上编辑的公式,结果这个网站不是免费的,后来公式全被封了,坑啊,所以警告大家千万别用这个网站来编辑公式。

2017-12-27 21:19:39

阅读数 916

评论数 3

机器学习小问题加答案

Q1:为什么需要激活函数? A1:因为没有激活函数的话,无论多少层的叠加,都只是做一个线性变换,永远只能拟合出一条线性的直线或平面,不能拟合出非线性的曲线和曲面,所以需要加上激活函数,这才可以拟合出任意的曲线和曲面

2017-12-27 20:18:23

阅读数 106

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭