感觉自己是鱼的记忆,3天没看,我都得用脑子过一下我的程序存在哪里了,怎么打开的来着?!神烦……日常自我怀疑:我是猪吗?
今天又过了一遍翻译版的课件,感觉又学了一边新知识……(https://zhuanlan.zhihu.com/p/21930884?refer=intelligentuni)
关于SVM的梯度为什么是用两个dw相加,看这个就清楚很多了(https://blog.csdn.net/pjia_1008/article/details/66972060)
SVM中向量的处理:(https://blog.csdn.net/AlexXie1996/article/details/79184596)
程序参考(https://blog.csdn.net/sdu_hao/article/details/86617357)
SVM很多文档都有提到VC维。我不明白什么是VC维,so,1、VC维
(https://blog.csdn.net/xinzhangyanxiang/article/details/18407259)
有H个数据,且H的分布是确定滴,那么若是无论怎么对数据进行标注,都能保证有一个x维分类器对数据进行划分,那么就说这x维分类器的VC维是H。
softmax梯度下降还是有一个导数没看懂,蒙圈了(https://blog.csdn.net/pjia_1008/article/details/66972060)明天再接着看。