简单来说:写一个rnn-layer,封装成层。所有的参数都放在该layer变量中。bottom是图片各region的特征向量,top是节点分的若干个class. 在rnn-layer的更上一层,加一个softmax-loss-layer就可以了。所以,关键问题是求好“新”的num(),以使得rnn-layer能承接softmax-loss-layer传回来的残差,进行梯度更新。
如图。
——王广润
简单来说:写一个rnn-layer,封装成层。所有的参数都放在该layer变量中。bottom是图片各region的特征向量,top是节点分的若干个class. 在rnn-layer的更上一层,加一个softmax-loss-layer就可以了。所以,关键问题是求好“新”的num(),以使得rnn-layer能承接softmax-loss-layer传回来的残差,进行梯度更新。
如图。
——王广润