一切为了快速出程序和写论文,在以前的学习中没有好好打基础。现在想起来不是很可取,一个是效率确实低,总能让一些小问题卡半天;再一个就是理解不到位,对很多基础知识一知半解。所以真的很有必要重新认真学过,这次不求快,但求认真和扎实。
现在感觉TensorFlow真的要渐行渐远了,兼容性总是有不好搞的地方,所以重新学习的内容以pytorch为主,还有一些经典的深度学习文章。
第一个要学习的是Numpy。以前真没把这个当回事,现在看起来埋下很多坑。有些以前的代码写的不是很规范,方法也不是很好,导致代码看起来既繁琐,运行速度又慢。
第二个要学习的是pytorch。之前学习的时候以TensorFlow为主,pytorch只是实现了基本的功能。这次准备把基础功能在TensorFlow上再实现一次。
第三个就是读经典论文。很多经典论文只是引用过,没有细读,也没有认真记录,现在也得补上。