![](https://img-blog.csdnimg.cn/20201014180756916.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
小码奔腾
小码奔腾,心不跳
展开
-
cs231n assignment(1.2) svm分类器
SVM分类器练习的宗旨在于:实现全向量模式的SVM损失函数实现全向量模式的SVM梯度使用数值检测来检测结果使用验证集来调试学习率(learning rate)和正则强度(regularization strength)使用SGD(随机梯度下降)优化损失函数形象化最终的权重值1. 数据准备和预处理数据准备部分同上一次kNN分类器大部分相同,不同的是添加了一个新的小的dev数据集,用来加快训原创 2017-11-07 14:43:37 · 348 阅读 · 0 评论 -
cs231n assignment(1.1):kNN分类器
cs231n assignment(1):kNN分类器kNN分类器练习的宗旨在于:了解基本图像分类流程,交叉验证,熟悉书写高效的向量代码understand the basic Image Classification pipeline, cross-validation, and gain proficiency in writing efficient, vectorized code.1. 数原创 2017-10-30 16:49:09 · 294 阅读 · 0 评论 -
cs231n assignment(1.3):softmax分类器
cs231n assignment(1.3):softmax分类器softmax分类器的练习宗旨在于:实现全向量模式的Softmax分类器的损失函数实现其损失函数的全向量模式的解析梯度利用数值检测来检测结果使用验证集来调整学习率和正则强度利用SGD优化损失函数可视化最终学习到的权重矩阵1.数据准备与预处理这里的数据准备与预处理阶段与上一篇svm分类器中的准备与预处理阶段相同,所以略去只原创 2017-11-09 15:09:30 · 414 阅读 · 0 评论 -
cs231n assignment(1.4):two_layer_net
two_layer_net这个练习中,使用一个两层全连接的神经网络用以分类工作 各层的情况是: input - fully connected layer - ReLU - fully connected layer - softmax两层的神经网络计算loss和梯度def ReLU(x): #ReLU non-linearity. return np.maximu原创 2017-11-13 10:02:38 · 561 阅读 · 1 评论