- torch的forward函数不一定非要调用
- torch的loss可以自己定义在模型中,不一定要通过torch的接口定义
3.反向传播不需要一定使用forward(),而且不需要定义loss=nn.MSError()等,直接score1 - score2 ,就可以反向传播了。
无论两个矩阵你咋操作,只要满足,不管你是只取一行,还是几行,加减乘数。只要能够满足这个式子,就能够反向传播,前提是 self.transitions = nn.Parameter(torch.randn(self.tagset_size, self.tagset_size)) 将你想要更新的矩阵,放入到module的参数中,这样才能够更新。
model.train() :启用 BatchNormalization 和 Dropout
model.eval() :不启用 BatchNormalization 和 Dropout