为什么引入非线性激励函数?
因为无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当。
sigmod()和ReLu()
最新推荐文章于 2023-07-10 20:07:07 发布
为什么引入非线性激励函数?
因为无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当。