深度学习基本概念

  1. 卷积的含义:一个函数(输入)在另一个函数(加权函数)上的加权叠加,得到的函数为输出随时间变化的函数,可以用来做特征提取
  2. batchsize:每批处理的数据数目 eporch:迭代次数 ReLU,Sigmoid,Softmax均为激活函数,比如Softmax输出类标签分布后,与真实类标签分布构成交叉熵(交叉熵反映了相似程度),即softnax交叉熵损失函数。
  3. 端到端的模型:模型从原始输入到最终输出,自动提取特征
  4. 非端到端的模型:输入的是提取后的特征,而不是原数据,本质为你要解决的问题是多阶段的或多步的,如果分阶段学习,第一段的最优解不能保证第二阶段达到最优,而端到端模型把他们堆在一起优化,全局最优
  5. 例如sigmoid_cross_entropy_with_logit(logits,targets)中logits就是神经网络模型中的w*x矩阵,假如这个模型要判断100张测试图中是否包含10种动物,targets和logits的shape都是[100,10(num_classes)]
  6. 激活函数如sigmoid,softmax,tanh都有饱和区域,当随着网络层数加深,sigmoid等的导数过小时,容易梯度消失,因为梯度等于导数乘以w,所以当w过大时容易梯度爆炸,https://zhuanlan.zhihu.com/p/25631496,梯度爆炸的解决办法时限制最大值,梯度消失是更换激活函数为ReLU(max(0,x)),此时导数为1,不会消失,但在小于0部分没有梯度,解决办法为改为softpl
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值