一、完成的事项
学习了《神经网络和深度学习》课程 第三周(5~8)
二、笔记
1.激活函数
视频中提及的激活函数:
- sigmoid(z) = 1 / [1+e(-z)]
- tanh(z) = (ez-e-z) / (ez+e-z)
- RELU ➡ a = max(0,z) // leaky RELU
一般来说 tanh() 函数会比 sigmoid() 函数要优秀,因为它有数据中心化的作用(使数据的平均值接近于0)
除了输出层(结果在0 ~ 1 之间会比在-1 ~ 1之间要好)
但是,我们通常使用RELU函数
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/02b3d61b3b386606e5aec506bd1c9c48.png)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/61db32e53d694414310ebaba90227d25.png)
2.各激活函数的导数
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/7bb59da0362257a2d3c57131c936a4d3.png)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/a3ccc0e5e2f55a6d956b6f686433c0b8.png)
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/886a3debb33a5c3633d19489518929a6.png)