- 博客(6)
- 资源 (5)
- 收藏
- 关注
转载 梯度下降优化算法综述(转载)
原文地址:http://www.cnblogs.com/ranjiewen/p/5938944.html对梯度下降进行详细解释,以及总结不同的梯度下降优化算法的优劣,可以作为参考。上两张图,简直不能更直观:直接跳转原文地址吧!
2017-07-26 17:04:41 417
转载 【Caffe】利用log文件绘制loss和accuracy(转载)
(原文地址:http://blog.csdn.net/liuweizj12/article/details/64920428) 在训练过程中画出accuracy 和loss曲线能够更直观的观察网络训练的状态,以便更好的优化网络的训练。本文主要介绍在基于caffe框架训练网络时,如何利用caffe自带的一些实用的工具包来绘制曲线一、设置训练配置文件参数,保存训练时的参数至log文件[python]
2017-07-24 09:09:23 730
原创 【caffe】Caffe的Python接口-官方教程-00-classification-详细说明(含代码)
00-classification 主要讲的是如何利用caffenet(与Alex-net稍稍不同的模型)对一张图片进行分类(基于imagenet的1000个类别)先说说教程到底在哪(反正我是找了半天也没发现。。。) 其实并没有官方教程一说,只是在caffe/example/下有 00-classification.ipynb; 01-learning-lenet.ipynb; 02-fin
2017-07-23 11:36:21 1975
原创 【文献阅读】Stacked What-Where Auto-encoders -ICLR-2016
一、Abstract提出一种新的autoencoder —- SWWAE(stacked what-where auto-encoders),更准确的说是一种 convolutional autoencoder,因为在CNN中的pooling处才有 “what-where。SWWAE呢,是一种整合了supervised,semi-supervised and unsupervised learnin
2017-07-22 10:43:36 3054 11
原创 【文献阅读】Augmenting Supervised Neural Networks with Unsupervised Objectives-ICML-2016
一、abstract 从近期对unsupervised learning 的研究得到启发,在large-scale setting 上,本文把unsupervised learning 与supervised learning结合起来,提高了supervised learning的性能。主要是把autoencoder与CNN结合起来
2017-07-19 10:04:42 901
原创 ubuntu14.04设置sublime text3为默认文本编辑器
更新时间2017年07月20日17:35:04 原来的方法貌似并不试用,现在才发现,其实ubuntu下也和Windows下一样。。。 右键,属性,然后如图所示 set as default 即可。 之前的方法太“二”了 ————————————分割线———————————————– 不少同学都使用sublime进行编辑,但是ubuntu下默认的是gedit。而ubuntu不和window
2017-07-14 14:23:41 4635 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人