一、 深度学习基础

一、 深度学习基础

1.1 基本过程


1.1.1 数据预处理

将现实世界中的实物特征化,表示成一个多维向量。例如一张图片可以特征化成一个多维数组,形状为通道数

1.1.2 定义网络结构

深度学习训练好的模型主要包括两部分:网络结构+每层网络的具体参数

定义网络的常用层:

  • Dense层(全连接层)

    keras.layers.core.Dense(units, activation=None, use_bias=True, input_shape=(x,))
    # 重要参数units:隐藏层节点数,activation:激活函数,use_bias:是否使用偏置
    
  • Activation 层(施加激活函数)

    常用的激活函数有:

    1. relu函数
      f ( x ) = m a x ( 0 , x ) f(x) = max(0,x) f(x)=max(0,x)

      输入小于0为0,输入大于0为输入。

      优点:由上图可以看出,Relu得到的SGD的收敛速度较快
      缺点:训练的时候很容易‘die’了,对于小于0的值,这个神经元的梯度永远都会是0,在实际操作中,如果learning rate很大,很可能网络中较多的神经元都’dead’了,即使是较小的learning rate,这种情况也很有可能发生。

    2. leakyrelu
      y = m a x ( 0 , x ) + l e a k ∗ m i n ( 0 , x ) y = max(0, x) + leak*min(0,x) y=max(0,x)+leakmin(0,x)

      (leak是一个很小的常数,这样保留了一些负轴的值,使得负轴的信息不会全部丢失)

    3. tanh
      f ( x ) = e x − e − x e x + e − x f(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}} f(x)=ex+ex

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值