![](https://img-blog.csdnimg.cn/2019091813595558.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
cs231n计算机视觉
一些关于计算机视觉的深度学习和机器学习代码
qq_40178533
这个作者很懒,什么都没留下…
展开
-
CS231n的第三次作业之图像生成:类别,反演和DeepDream
在本作业中,你将实现循环网络,并将其应用于在微软的COCO数据库上进行图像标注。我们还会介绍TinyImageNet数据集,然后在这个数据集使用一个预训练的模型来查看图像梯度的不同应用。到目前为止,在CS231N中,我们探索的神经网络的所有应用都是具有判别能力的模型,该模型接受输入并经过训练以产生标记的输出。 范围从简单的图像类别分类到句子生成(仍然被称为分类问题,我们的标签在词汇空间中,并且我们学会了重复捕获多词标签)。 在本笔记本中,我们将扩展功能范围,并使用神经网络构建生成模型。 具体来说,我们将原创 2020-05-19 10:36:27 · 600 阅读 · 0 评论 -
CS231n的第三次作业之图像梯度:显著图和高效图像
在本作业中,你将实现循环网络,并将其应用于在微软的COCO数据库上进行图像标注。我们还会介绍TinyImageNet数据集,然后在这个数据集使用一个预训练的模型来查看图像梯度的不同应用。在训练模型时,我们定义了一个损失函数,用于衡量当前对模型性能的不满; 然后,我们使用反向传播来计算相对于模型参数的损耗梯度,并对模型参数执行梯度下降以最小化损耗。在这里,我们将做一些稍微不同的事情。 我们将从卷积神经网络模型开始,该模型已经过训练,可以对ImageNet数据集执行图像分类。 我们将使用该模型来定义一个损原创 2020-05-19 10:22:45 · 585 阅读 · 0 评论 -
CS231n的第三次作业之GRU和LSTM长期记忆网络模型
在本作业中,你将实现循环网络,并将其应用于在微软的COCO数据库上进行图像标注。我们还会介绍TinyImageNet数据集,然后在这个数据集使用一个预训练的模型来查看图像梯度的不同应用。门控制单元LSTMLSTM是一个比GRU更加强大和通用的版本,这多亏了 Sepp Hochreiter和 Jurgen Schmidhuber,感谢那篇开创性的论文,它在序列模型上有着巨大影响。我感觉这篇论文是挺难读懂的,虽然我认为这篇论文在深度学习社群有着重大的影响,它深入讨论了梯度消失的理论,我感觉大部分的人学原创 2020-05-18 10:36:25 · 281 阅读 · 0 评论 -
CS231n的第三次作业之循环神经网络
在本作业中,你将实现循环网络,并将其应用于在微软的COCO数据库上进行图像标注。我们还会介绍TinyImageNet数据集,然后在这个数据集使用一个预训练的模型来查看图像梯度的不同应用。使用普通RNN进行图像标注...原创 2020-05-17 20:36:31 · 272 阅读 · 0 评论 -
深度卷积网络:实例探究
几个经典的网络LeNet-5网络,我记得应该是1980年代的,经常被引用的AlexNet,还有VGG网络。这些都是非常有效的神经网络范例,当中的一些思路为现代计算机视觉技术的发展奠定了基础。论文中的这些想法可能对你大有裨益,对你的工作也可能有所帮助。然后是ResNet,又称残差网络。神经网络正在不断加深,对此你可能有所了解。ResNet神经网络训练了一个深达152层的神经网络,并且在如何有效训练方面,总结出了一些有趣的想法和窍门。最后还有一个Inception神经网络的实例分析。LeNet-5首先看转载 2020-05-16 09:19:03 · 175 阅读 · 0 评论 -
CS231n的第二次作业之深度学习框架
pytorch 框架PyTorch是一个用于在Tensor对象上执行动态计算图的系统,其行为类似于numpy ndarray。 它带有一个强大的自动微分引擎,无需手动进行反向传播。首先,我们加载CIFAR-10数据集。 第一次执行可能会花费几分钟,但是之后文件应保持高速缓存。mport torchimport torch.nn as nnimport torch.optim as optimfrom torch.utils.data import DataLoaderfrom torch.ut原创 2020-05-15 15:08:04 · 648 阅读 · 0 评论 -
CS231n的第二次作业之卷积神经网络
作业二作业内容:在本作业中,你将练习编写反向传播代码,训练神经网络和卷积神经网络原创 2020-05-14 19:35:47 · 445 阅读 · 0 评论 -
深层神经网络:超参数调试、正则化以及优化
代做原创 2020-05-13 14:12:26 · 873 阅读 · 0 评论 -
CS231n的第二次作业之全连接神经网络
作业二作业内容:在本作业中,你将练习编写反向传播代码,训练神经网络和卷积神经网络原创 2020-05-13 10:07:43 · 499 阅读 · 0 评论 -
CS231n的第一次作业之更高层次表达:图像特征
作业一作业内容:实现k-NN,SVM分类器,Softmax分类器和两层神经网络,实践一个简单的图像分类流程。0.前言我们已经看到,通过用输入图像的像素训练的线性分类器对图像的分类问题已经取得了不错的结果。在这个练习中我们会用对图像像素进一步计算得来的特征来训练线性分类器从而提高性能1.抽取特征(Extract Features)对于每张图,我们会计算梯度方向直方图(HOG)特征和用HSV(Hue色调,Saturation饱和度,Value明度)颜色空间的色调特征。把每张图的梯度方向直方图和颜色直转载 2020-05-11 15:48:53 · 302 阅读 · 0 评论 -
CS231n的第一次作业之浅层神经网络
作业一作业内容:实现k-NN,SVM分类器,Softmax分类器和两层神经网络,实践一个简单的图像分类流程。原创 2020-05-10 15:32:02 · 573 阅读 · 0 评论 -
CS231n的第一次作业之Softmax
作业一作业内容:实现k-NN,SVM分类器,Softmax分类器和两层神经网络,实践一个简单的图像分类流程。原创 2020-05-10 09:16:20 · 414 阅读 · 0 评论 -
CS231n的第一次作业之SVM
作业一作业内容:实现k-NN,SVM分类器,Softmax分类器和两层神经网络,实践一个简单的图像分类流程。原创 2020-05-09 17:53:51 · 332 阅读 · 0 评论 -
CS231n的第一次作业之KNN
作业一作业内容:实现k-NN,SVM分类器,Softmax分类器和两层神经网络,实践一个简单的图像分类流程。1. KNN分类器KNN介绍:KNN分类器其只找最相近的那1个图片的标签,我们找最相似的k个图片的标签,然后让他们针对测试图片进行投票,最后把票数最高的标签作为对测试图片的预测。所以当k=1的时候,k-Nearest Neighbor分类器就是Nearest Neighbor分类器。...原创 2020-05-08 19:47:25 · 373 阅读 · 0 评论