前言
在深度学习中,有时候我们需要对某些节点的梯度进行一些定制,特别是该节点操作不可导(比如阶梯除法如
![bb6cb7ca6d61de65ab0948f6d872a552.png](https://i-blog.csdnimg.cn/blog_migrate/3d5987913b4160e86c5d1ebfcbd66f0b.jpeg)
在tensorflow中有若干可以实现定制梯度的方法,这里介绍两种。
联系方式:
e-mail: FesianXu@gmail.com
QQ: 973926198
github: https://github.com/FesianXu
如有谬误,请联系指正。转载请注明出处
1. 重写梯度法
重写梯度法指的是通过tensorflow自带的机制,将某个节点的梯度重写(override),这种方法的适用性最广。我们这里举个例子[3].
符号函数的前