![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cs231n
qq_40825408
这个作者很懒,什么都没留下…
展开
-
关于cs231n作业1中KNN算法实现的感悟
1、避免使用循环,直接使用数组进行计算(一般需要广播)可以很好的提高计算效率,一般情况下都是可以在原来的维度下找到相应的表达式来代替循环,切记最好不要轻易提高维度来解决问题,因为这会大大增加计算量。>>> import numpy as np>>> train = np.arange(30).reshape(6,5)>>> test = np....原创 2018-02-26 16:31:36 · 199 阅读 · 0 评论 -
关于cs231n中作业1的SVM和Softmax线性分类器实现的感悟
1、对于复杂的含有多Wi参数的函数L求导问题,首先是分别对单个参数求偏导数,然后放置到此参数对应的矩阵的位置。在求偏导数的矩阵表示时,一般要经历如下两个步骤:数字计算:分解步骤,同时计算L和导数:一般情况下,L的计算分很多步,而且每一步也十分复杂,可能涉及到数值判定等。但是只要你将这些步骤分解成很多个小步骤(使用循环,只要你能表达清楚,电脑不怕计算多),在每一个小步骤里面同时计算这一小步骤中Li的...原创 2018-03-01 18:03:23 · 306 阅读 · 0 评论 -
cs231n课程作业1——二层神经网络分类器感悟
1、反向求导2、数据预处理一般采用减均值,若特征间数据的范围差距很大,则考虑除以均方差进行归一化。一般不需要PCA降维和白化操作切记先切分数据集、验证集、测试集,之后再进行预处理3、初始化 权重初始化w = np.random.randn(n) * np.sqrt(2/n) #后续再卷积神经网络中测试偏置初始化b = 0多层网络间正则化程度一般取相同,可采用L2正则化和随机失活4、检查解析梯度使用...原创 2018-03-28 21:39:46 · 581 阅读 · 0 评论