最近两周,早上睡觉自然醒没超过八点的,有了在学校的感觉......不知道是好是坏,每天神经紧绷的,在车老弟的push下,从TensorFlow,Keras转战PyTorch。
从最初的的极度反感,到现在的慢慢适应,当然,还谈不上喜欢。
体验了一周多,PyTorch的动态图机制,确实比tf 1.X好很多,可以随便涂随便画,除了这一点确实让人喜欢之外,因为有TensorFlow和Keras的基础,PyTorch相对上手快很多,也还算让人欣慰,毕竟时间紧任务重。
然而让人不讨喜的是,Torch并没有tf.keras那么多封装好的layer,直接导致了自己GitHub上找代码,再爬下来用,问题就这这里,因为不是很清楚有些layer的内部结构,所以有时候不知道找的代码是对是错,导致我经常怀疑是Torch的问题 (已经积累了很多可用的现成的layer的Torch大神勿喷,我只是Torch小白).....
当然这些问题只是暂时的,毕竟还是会慢慢熟悉起来的。转战torch,还有一点我觉得特别欣慰的是,看GitHub上的代码,不管是TensorFlow、Keras还是PyTorch的,自己摸索着大部分都能看懂了,以前 见了Torch的代码,可都是绕道而行的。
最近用Torch接触了一个新模型,是网上吹的很厉害的一个模型,别人论文里效果贼好,可用在自己的数据上实现下来,效果差差差差差差的.....都不想调下去了,看不到希望的那种差......甚至远不如三层的MLP普通的三层神经网络,导致我一度怀疑到吐血......
今天一天,各种尝试,加linear,加Conv,加Graph,等等等等,我被完败了,效果依旧差,我的五四,就是这样的,在深度瞎学调参中度过了......
万事开头难,相信自己,既然迈出了第一步,就会有第二步,第三步,以及未来,很远很远的路~
五四共勉,晚安,小伙伴们,加油~