首先谴责一下CSDN,我编辑了半天的文章说没就没,这是重写的一份,废话不多说:
最近复习RNN,在用pytorch直接性的翻译一段keras代码的时候,遇到一个TimeDistributed()
对于这个问题直接引用pytorch社区一个哥们的说法:
- For an equivalent of Keras TimeDistributed you want indeed just a single module.
- Yes, as you noted, duplicating the module might not be the right thing.