Zaremba W, Sutskever I, Vinyals O. Recurrent Neural Network Regularization[J]. Eprint Arxiv, 2014.
不破坏recurrent connections, 在不同层之间加入dropout。
在四种情景下进行实验:language modeling, speech recognition, machine translation and image caption generation,最终证明结果确实有所提高。
不破坏recurrent connections, 在不同层之间加入dropout。
在四种情景下进行实验:language modeling, speech recognition, machine translation and image caption generation,最终证明结果确实有所提高。