深度学习与图像识别:神经网络基础

1.激活函数

当出现线性不可分时,需要在隐藏层之间添加激活函数

1.1 Sigmoid函数

1.2 Tanh函数

公式如下:

f(x)=\frac{e^x-e^{-x}}{e^x+e^{-x}}

输出区间在[-1,1]以0为中心,类似于sigmoid,但也与sigmoid一样在权重很小时,不利于权重的更新。

1.3 ReLU函数

大于0的数将直接输出,小于0的数为0;

优点在于方便运算

1.4 Softmax函数

S_i=\frac{e^{V_i-D}}{\sum _j^C e^{V_i-D}}

将输入值指数化并其归一化,因为有时数值太大,防止其超过上限所以减去一个最大值D

1)分子:通过指数函数,将实数输出映射到零到正无穷。

2)分母:将所有结果相加,进行归一化。

2.损失函数

神经网络得以实现是经过前向传播计算Loss,根据Loss的值进行反向推导,并进行相关参数的调整。所以损失函数的选取十分关键,主要的是均方误差交叉熵误差

2.1均方误差

2.2交叉熵误差

公式:

Loss=-\frac{1}{N}\sum _N\sum _{j=1}^{C=4}y_jlog(y\_ predict_j)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值