- 博客(9)
- 资源 (1)
- 收藏
- 关注
原创 caffe初探之-caffe使用Siamese Network 训练网minst数据集
1.获取数据集cd caffe./data/mnist/get_mnist.sh2.创建两个数据集cd caffe./examples/siamese/create_mnist_siamese.sh3.训练和测试数据cd caffe./examples/siamese/train_mnist_siamese.sh 注:遇到问题及解决办法运行create_mnist
2017-02-28 09:52:59 2001
转载 深度学习视觉领域常用数据集汇总
转自:数据派ID:datapi[导读] “大数据时代”,数据为王!无论是数据挖掘还是目前大热的深度学习领域都离不开“大数据”。大公司们一般会有自己的数据,但对于创业公司或是高校老师、学生来说,“Where can I get large datasets open to the public?”是不得不面对的一个问题。本文结合笔者在研究生学习、科研期间使用过以及阅读文献了解到的深度学习
2017-02-27 17:09:24 1412
转载 imagenet2012数据集下载
下载地址http://www.image-net.org/challenges/LSVRC/2012/nnoupb/ILSVRC2012_img_test.tarhttp://www.image-net.org/challenges/LSVRC/2012/nnoupb/ILSVRC2012_img_val.tarhttp://www.image-net.org/challe
2017-02-27 16:26:54 31671 9
转载 常用Linux命令
1、ls命令 就是list的缩写,通过ls 命令不仅可以查看linux文件夹包含的文件,而且可以查看文件权限(包括目录、文件夹、文件权限)查看目录信息等等 常用参数搭配: ls -a 列出目录所有文件,包含以.开始的隐藏文件 ls -A 列出除.及..的其它文件 ls -r 反序排列
2017-02-27 10:07:37 252
原创 引入非线性激励函数的作用
deep neural network可以认为是特征的多层表达,这过程activation function的作用是提供非线性变换。如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。线性变换模型capacit
2017-02-21 17:05:06 1568
转载 Deep Learning(深度学习)学习笔记
文章地址 http://blog.csdn.net/zouxy09/article/details/8775360
2017-02-21 16:06:29 429
转载 常用激活函数的总结与比较
转自 https://zhuanlan.zhihu.com/p/25204824激活函数(Activation Function)能够把输入的特征保留并映射下来。SigmoidSigmoid 非线性函数将输入映射到 之间。它的数学公式为:。历史上,sigmoid 函数曾非常常用,然而现在它已经不太受欢迎,实际很少使用了,因为它主要有两个缺点:1. 函数饱和使
2017-02-21 15:55:36 844
转载 【机器学习】神经网络-激活函数-面面观(Activation Function)
本文转自 http://blog.csdn.net/cyh_24/article/details/50593400神经网络之激活函数(Activation Function)日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?
2017-02-21 15:46:28 639
转载 机器学习笔记(PRML)
机器学习笔记简介作者:李金 版本:0.0.1邮件:lijinwithyou@gmail.com机器学习笔记,使用 jupyter notebook (ipython notebook) 进行展示。Github 加载 .ipynb 的速度较慢,建议在 Nbviewer 中查看该项目。目录第一部分来自 Bishop 的经典书籍 Pattern
2017-02-21 09:43:35 1128
大规模机器学习平台的技术实现.pptx
2019-11-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人