AI机器学习相对来说是一个门槛比较高的领域,有大量数学公式,理论推导,也需要大量看英文论文。去年我花了2个月时间学习了基础知识。比如各种概念:熵,损失函数,优化算法,广义线性函。各种模型:K最近邻算法,决策树,随机森林算法,朴素贝叶斯,线性回归,逻辑回归, SVM, WordVec, 神经网络。
然后后面就是focus在卷积神经网络模型这一块,因为这个应用最广泛,比如图像风格化,抠图去背,语义识别(LSTM)。这里面又涉及大量概念:卷积,池化,全连接,激励函数,反向传播,NIN, 残差网络, 归一化(BN, LRN, RN)
然后就是实践,涉及TensorFlow, Caffe, Torch等平台编程training模型算法。最核心的是看别人的论文,自己摸索修改参数,training, 修正不断training。然后因为各方面的原因,我暂停了AI方向的研究转向了区块链方向。
由于这部分的学习有段时间了,原来的学习笔记整理需要耗费比较长的时间,而目前又将重心放在区块链方面,因而只是在我的博客里转发了我自己学习过程中精选的很好的文章,希望能够节约初学者一点找资料的时间。
总结:先学习基本概念,模型,然后选择一些模型自己推导,然后学习python,使用TensorFlow实践,然后根据经典应用比如图像风格化,查找论文及参考其他人的实现,自己实践操作.