![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
CS231n学习笔记
文章平均质量分 59
etbrrre
dsf
展开
-
CS231n_1_assignment1_KNN做题笔记
笔记 1.python中一个向量,每个元素平方后求和: 方法1 sum = 0 for item in vector: sum += item*item 方法2 distance_temp = np.sum((x_test_temp - x_train_temp)**2)原创 2018-12-12 16:14:16 · 483 阅读 · 0 评论 -
CS231n_2_assignment1_SVM做题笔记
一、几个公式&几句描述SVM的话 (一)Scores 和 Loss Function 第i个样本,第j类的得分: sj=f(xi,W)j s_j=f(x_i,W)_j sj=f(xi,W)j 第i个样本的loss: Li=∑j≠yimax(0,sj−syi+Δ) L_i=∑_{ j≠y_i}max(0,s_j−s_{y_i}+Δ) Li=j̸=yi∑max(0,sj−syi...原创 2018-12-13 20:33:43 · 199 阅读 · 0 评论 -
反向传播
Back Propagation 为了优化神经网络(调整参数theta使h_of_X更贴近标签y),需要用到梯度下降或者更高级的优化/学习方法,比如fminuc。无论使用哪种优化方法,都需要求出CostFunction对于theta的导数,为调整参数theta指明方向。 所以目的是求出CostFunction对所有theta的导数,并用权重-这个导数×学习速率,用来更新权重theta,使CostF...原创 2018-12-19 16:17:42 · 145 阅读 · 0 评论