![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习基础
文章平均质量分 93
SX_真可爱
这个作者很懒,什么都没留下…
展开
-
经典激活函数代码实现—relu、sigmoid、tanh、softplus、softmax
经典激活函数代码实现与函数经典激活函数reLUsoftplustanhsigmoidsoftmax代码实现图像绘制结果经典激活函数relu、softplus、tanh、sigmoid、softmaxreLU线性整流函数(Rectified Linear Unit, ReLU)f(x)=max(0,x)f(x) = max(0,x)f(x)=max(0,x)而在神经网络中,Relu作为神经元的激活函数,定义了该神经元在线性变换wx+bwx+bwx+b之后的非线性输出结果。换言之,对于进入神经元的原创 2021-05-24 21:21:13 · 4364 阅读 · 0 评论 -
经典损失函数:交叉熵(附tensorflow)
每次都是看了就忘,看了就忘,从今天开始,细节开始,推一遍交叉熵。我的第一篇CSDN,献给你们(有错欢迎指出啊)。一.什么是交叉熵交叉熵是一个信息论中的概念,它原来是用来估算平均编码长度的。给定两个概率分布p和q,通过q来表示p的交叉熵为: 注意,交叉熵刻画的是两...转载 2019-09-05 14:53:45 · 944 阅读 · 1 评论