这一节讲RNN如何learning:
下面讲如何定义loss,举一个例子:
RNN同样可以用gradient descent来train:
因为同样的sequent在不同的时间点会被使用:
input(多个)-->output(一个):
多对多:
出现叠词时,用CTC区分:
一些词的顺序可以被忽略:
encoder和decoder一起train:
RNN vs Structured Learning:
这一节讲RNN如何learning:
下面讲如何定义loss,举一个例子:
RNN同样可以用gradient descent来train:
因为同样的sequent在不同的时间点会被使用:
input(多个)-->output(一个):
多对多:
出现叠词时,用CTC区分:
一些词的顺序可以被忽略:
encoder和decoder一起train:
RNN vs Structured Learning: