深度学习ff

one-hot编码

为什么要使用one-hot编码

https://blog.csdn.net/binlin199012/article/details/107341462/

损失函数

h θ ( x ) = g ( θ T x ) h_{\theta}(x)=g\left(\theta^{T} x\right) hθ(x)=g(θTx)

J ( θ ) = − 1 m ∑ i = 1 m [ y ( i ) log ⁡ ( h θ ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h θ ( x ( i ) ) ) ] J(\theta)=-\frac{1}{m} \sum_{i=1}^{m}\left[y^{(i)} \log \left(h_{\theta}\left(x^{(i)}\right)\right)+\left(1-y^{(i)}\right) \log \left(1-h_{\theta}\left(x^{(i)}\right)\right)\right] J(θ)=m1i=1m[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]
先关损失函数,包括负采样

https://carlos9310.github.io/2019/10/15/Approximating-the-Softmax/

上述为二分类的交叉熵损失函数,加负号是因为log得到的就算结果是负值。多分类的参考:

https://zhuanlan.zhihu.com/p/35709485

使用pytorch实现损失函数为:

https://www.cnblogs.com/peixu/p/13194801.htm

softmax函数

https://blog.csdn.net/lz_peter/article/details/84574716

在这里插入图片描述

不同的激活函数

https://www.cnblogs.com/ya-qiang/p/9258714.html
如果没有激活函数,就不算神经网络,激活函数是为了增加网络的非线性。
** 选择激活函数的经验法则:** 如果输出是0,1值(二分类问题),则输出层选择sigmoid函数,然后其它的所有单元都选择Relu函数。

https://blog.csdn.net/adolph_yang/article/details/78956987

BN层的作用

https://zhuanlan.zhihu.com/p/75603087(这篇知乎讲解的很仔细)

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值