- 博客(15)
- 收藏
- 关注
转载 用keras增广数据的相关博客
1 Image Augmentation for Deep Learning With Kerasby Jason Brownlee on June 29, 2016 in Deep Learning用mnist数据集为例子,灰度图像https://machinelearningmastery.com/image-augmentation-deep-learning-keras/2 一文解决图片数...
2018-02-26 09:48:48 828
原创 tensorflow 中查看张量值的方法
在调试用TensorFlow编写的程序的时候,需要知道某个tensor的值是什么。直接print只能打印输出张量的shape,dtype等信息,而要查看张量的值的方法如下:【1】用class tf.Session或 class tf.InteractiveSession类中的eval例如:
2017-11-02 16:30:19 31132 6
翻译 cs231n 卷积神经网络 (1) (自学翻译)
翻译原文来自于:http://cs231n.github.io/convolutional-networks/卷积神经网络卷积神经网络由能够学习权重和偏置的神经元构成。每个神经元接收一些输入,执行点乘,并且在其后可以跟着一个非线性操作(也可以没有,optionally 选择性的。原文:optionally follows it with a non-linearity)。整个网络仍然是
2017-09-28 16:00:11 728
原创 Win7下32位Python2.7 安装Numpy+Scipy过程
1 首先检查Python是32位or 64位,然后还要检查Python第3方库对应的版本信息。做法是在Python Shell中,输入:第一个cp27,cp27m,win32即是。2 到http://www.lfd.uci.edu/~gohlke/pythonlibs/找到并下载第3方库,注意要放在Python安装目录的Scripts中。这里我们需要下载的是numpy-
2017-08-16 13:09:18 3182
原创 论文笔记——拉普拉斯金字塔GAN
2.2 Laplacian Pyramid金字塔是线性可逆图像表示法,包含一系列带通图像,之间间隔八度,外加一个低频残差。令d(.)表示下采样,该操作使j*j的图像I模糊并变小,因此d(I/2)是大小为j/2*j/2大小的新图像。令u(.)表示上采样,该操作使I变得平滑并且增大为原来的2倍大小,即U(I)是大小为2j*2j的新图像。构建高斯金字塔 G(I)=[I0,I1, …,Ik],
2017-06-09 16:51:33 2930
转载 【转】模仿绘画风格的算法:A Neural Algorithm of Artistic Style
http://blog.csdn.net/bat67/article/details/52049983有代码,论文方面说的不多,有图,很有趣。等有时间看看这篇论文和代码,自己实现下。
2017-05-17 16:59:33 764
翻译 论文笔记——UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL NETWORKS
首先给出2篇参考译文https://ask.julyedu.com/question/7681 http://blog.csdn.net/c2a2o2/article/details/54408056 GANs的学习系列8本人的阅读笔记1引言从大规模无标签的数据集中学习可重复使用的特征表达是一个具有活力的研究领域。通过无穷的无标签图像来学习一种好的中间表达(good int
2017-05-17 16:08:27 3708
翻译 汉字的神经风格转移(Neural Style Transfer)实现——我的阅读笔记
本文是博客http://www.ctolib.com/Rewrite.html#articleHeader0,2016-10-26,2017-02-24 的译文汉字的神经风格转移(Neural Style Transfer)实现Neural Style Transfer For Chinese Fonts动机 创造字体非常艰难,创建汉字字体更难。为了创建兼容GBK的字体,设计者要对
2017-05-17 16:05:12 4283
转载 【转】关于deep dream 的论文的笔记
博客地址在这里:http://blog.csdn.net/elaine_bao/article/details/50502929这位博主还就斯坦福的深度学习课程做了笔记:http://blog.csdn.net/elaine_bao/article/details/50511419
2017-02-24 11:42:05 1393
原创 论文笔记:Adaptive Run Length Smoothing
题目:Segmentationof historical machine-printed documents using Adaptive Run Length Smoothing andskeleton segmentation paths作者:Nikos Nikolaou a,b,*, Michael Makridis a, Basilis Gatos b, NikolaosStamato
2017-02-23 20:49:31 927
转载 spatial pyramid pooling(matching)方法的解释
这一篇是 Spatial Pyramid Pooling 这篇文章的阅读笔记:http://blog.csdn.net/liyaohhh/article/details/50614380这一篇是 SPM的解释:http://blog.csdn.net/chlele0105/article/details/16972695
2017-02-22 09:03:06 591
转载 [转]文字检测与识别资源
本文介绍了很多经典的文字检测与识别文章,代码等。http://blog.csdn.net/peaceinmind/article/details/51387367
2017-02-16 17:01:23 399
转载 GAN学习资料
还是不知道让不让转载,直接给链接好了:生成式对抗网络GAN研究进展(二)——原始GAN http://blog.csdn.net/solomon1558/article/details/52549409生成式对抗网络GAN研究进展(三)——条件生成对抗网络CGAN http://blog.csdn.net/solomon1558/article/details/52555083生
2017-02-14 16:07:26 462
转载 关于图像目标检测的HOG\LBP\Harr特征的博客
不知道博客主人让不让转载呢,所以这里只给出博客的链接。以后用得上。目标检测的图像特征提取之(一)HOG特征 http://blog.csdn.net/zouxy09/article/details/7929348目标检测的图像特征提取之(二)LBP特征 http://blog.csdn.net/zouxy09/article/details/7929531目标检
2017-02-14 15:36:41 807
转载 [转]迁移学习&自我学习
本文转载自:http://blog.csdn.net/jwh_bupt/article/details/8901261最近在看Ng的深度学习教程,看到self-taught learning的时候,对一些概念感到很陌生。作为还清技术债的一个环节,用半个下午的时间简单搜了下几个名词,以后如果会用到的话再深入去看。 监督学习在前一篇博客中讨论过了,这里主要介绍下迁
2017-02-14 15:14:51 603
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人