- 博客(17)
- 资源 (1)
- 收藏
- 关注
转载 Andrew Ng的 Machine Learning 读书笔记 Lecture 4(数据归一化,调参)
from:http://blog.csdn.net/lujiandong1/article/details/44702297数据归一化: 归一化化定义:我是这样认为的,归一化化就是要把你需要处理的数据经过处理后(通过某种算法)限制在你需要的一定范围内。首先归一化是为了后面数据处理的方便,其次是保正程序运行时收敛加快。 方法有如下: 1、线性函数转
2017-05-31 13:19:50 450
转载 知识|深度学习开源框架caffe中的这些超参数你知道吗 前端信息 百家号|05-29 00:54 关注
from:https://baijiahao.baidu.com/po/feed/share?wfr=spider&for=pc&context=%7B%22sourceFrom%22%3A%22bjh%22%2C%22nid%22%3A%22news_3960259049607189919%22%7D配置文件中的参数:base_lr: 0.001lr_policy: "ste
2017-05-31 09:44:23 659
转载 神经网络中weight decay起到的做用是什么?momentum呢?normalization呢?
作者:陈永志链接:https://www.zhihu.com/question/24529483/answer/114711446来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。一、weight decay(权值衰减)的使用既不是为了提高你所说的收敛精确度也不是为了提高收敛速度,其最终目的是防止过拟合。在损失函数中,weight decay是放在正
2017-05-26 16:48:53 8004
转载 DL参数调整经验
看了各位老大的评论收益很多。从我个人的经验来说,提出几点总结:1.样本要多,其中人数要在12000人以上,最好有2000-3000个东方人,每个人的样本数量要均衡,不均衡就用各种随机的图像处理算法去生成,别怕麻烦2.batchnorm一定要加,而且不要相信论文里说的可以去掉dropout或减小weight_decay,batchnorm的抗过拟合能力实际上是不足的,所以dropout建议设
2017-05-26 10:31:56 885
转载 Caffe中学习率策略
from:http://blog.csdn.net/sunshine_in_moon/article/details/53563611今天,在训练网络时想换一种学习策略试试,因此重新研究了一下Caffe中提供的各种学习率策略,在这里和大家聊聊我使用时的一些经验教训。我们先来看看和学习率策略有关的参数,以下的内容来自caffe.proto中:[cpp] view pl
2017-05-25 15:15:58 3148
转载 Caffe:深度学习中 epoch,[batch size], iterations的区别
from:http://blog.csdn.net/qq_18515405/article/details/51821125在大部分深度学习架构中都抛不开三个概念epoch,[batch size], iterations;接下来就对这三个概念逐一解释一下one epoch:所有的训练样本完成一次Forword运算以及一次BP运算batch size:一次Forwo
2017-05-25 11:22:04 780
转载 Caffe使用:如何将一维数据或其他非图像数据转换成lmdb
转载地址:http://www.cnblogs.com/dcsds1/p/5205669.html在caffe的google group里我找到了这个网址:http://deepdish.io/2015/04/28/creating-lmdb-in-Python/[python] view plain copy
2017-05-24 14:59:21 689
转载 用pycaffe训练人工神经网络步骤
from:http://blog.csdn.net/leo_is_ant/article/details/50506256Caffe 是一个做CNN的工具。但是如果我只想搭建一套普通的神经网络,那么应该怎么做呢?这篇文章参考了一下两篇文章来一发CNN搭建神经网络的实验。 http://nbviewer.ipython.org/github/joyofdata/joyof
2017-05-24 14:43:29 1632
转载 Softmax vs. Softmax-Loss: Numerical Stability
from:http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/一切起源于我在 caffe 的网站上看到的关于 SoftmaxLossLayer 的描述:The softmax loss layer computes the multinomial l
2017-05-24 08:50:48 350
转载 caffe学习笔记19-batchsize参数
from:http://blog.csdn.net/yiliang_/article/details/604671291.当数据量足够大的时候可以适当的减小batch_size,由于数据量太大,内存不够。但盲目减少会导致无法收敛,batch_size=1时为在线学习。2.batch的选择,首先决定的是下降方向,如果数据集比较小,则完全可以采用全数据集的形式。这样做的好处有两点,
2017-05-23 16:30:47 2568
原创 机器学习&深度学习一些网站
http://ufldl.stanford.edu/wiki/index.php/UFLDL%E6%95%99%E7%A8%8B
2017-05-23 13:51:34 306
转载 对线性回归,logistic回归和一般回归的认识
from:http://blog.csdn.net/statdm/article/details/75851531 摘要 本报告是在学习斯坦福大学机器学习课程前四节加上配套的讲义后的总结与认识。前四节主要讲述了回归问题,回归属于有监督学习中的一种方法。该方法的核心思想是从连续型统计数据中得到数学模型,然后将该数学模型用于预测或者分类。该方法处理的数据可以是多维的。
2017-05-23 11:20:43 439
转载 机器学习入门:线性回归及梯度下降
from:http://blog.csdn.net/xiazdong/article/details/7950084本文会讲到:(1)线性回归的定义(2)单变量线性回归(3)cost function:评价线性回归是否拟合训练集的方法(4)梯度下降:解决线性回归的方法之一(5)feature scaling:加快梯度下降执行速度的方法(6)多
2017-05-23 10:48:16 309
转载 CNN、DNN、RNN 内部网络结构区别
https://www.zhihu.com/question/34681168从广义上来说,NN(或是更美的DNN)确实可以认为包含了CNN、RNN这些具体的变种形式。在实际应用中,所谓的深度神经网络DNN,往往融合了多种已知的结构,包括卷积层或是LSTM单元。但是就题主的意思来看,这里的DNN应该特指全连接的神经元结构,并不包含卷积单元或是时间上的关联。因此,题主一定要将DN
2017-05-23 09:15:20 2205
转载 聪明贝塔(Smart Beta)
聪明贝塔(Smart Beta)是最近几年投资界比较引人注目的一个热门话题。今天就专门来讲讲这个聪明贝塔。在这里我要提醒一下读者,这篇文章的内容稍微有点偏金融专业。如果读者朋友们不是金融背景出身,可能会碰到一些不太熟悉的概念和术语。但是你也不用太害怕,在这些专业术语的背后,其逻辑并不复杂。我会尽量用简单易懂的语言来把这个问题说清楚。上面这张图比较形象的解释了聪明贝塔。在金融投资中,有两个基本概念叫
2017-05-11 17:02:35 1566
转载 动量投资(Momentum Investing)
动量投资,是最为常见的量化投资策略之一。动量投资策略的应用涵盖多个金融市场,不仅限于股票市场,在期货,外汇等市场上也很多见。今天这篇文章,就来向大家介绍一下这种投资策略。即使是一个金融门外汉,应该也不难理解动量投资的概念。简而言之,动量投资就是“追涨杀跌”,买那些涨的厉害的,卖那些跌的厉害的。举例来说,目前中国A股有3000多支股票。我们可以根据这些股票在过去一年的价格变化将它们排序,从第1名排到
2017-05-11 17:01:04 2979
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人