- 激活函数是为了改变神经网络模型的结构,使得神经网络的不是线性的。
- 常见的激活函数:
- 常见的激活函数:
- tensorflow sigmoid与Relu对比
tensorflow代码在githubhttps://github.com/xzccfzy/svm.git
激励函数 | 优点 | 缺点 |
---|---|---|
sigmoid | 输出极值很少 | 收敛慢 |
relu | 快速收敛 | 返回结果中容易出现极值 |
- 常见的激活函数:
https://github.com/xzccfzy/svm.git
激励函数 | 优点 | 缺点 |
---|---|---|
sigmoid | 输出极值很少 | 收敛慢 |
relu | 快速收敛 | 返回结果中容易出现极值 |