深度学习
文章平均质量分 87
wjp_ctt
中科院研究生在读。研究方向为深度学习、机器学习、网络的可解释性、非监督学习
展开
-
深度学习文章阅读(一)——Alexnet
《ImageNet Classification with Deep Convolutional Neural Networks》 1 文章简要介绍 背景:这篇文章是Hinton团队参加ImageNet2012比赛用的网络,这是第一次用深度网络的方法参加ImageNet比赛,效果较之前的方法获得了极大提升。这个网络又被称为Alexnet,在这个网络之后,更多优秀的网络,如VGG,ResNet被...原创 2018-08-30 19:53:51 · 703 阅读 · 0 评论 -
CS231n作业(一)KNN分类
作业说明 学习ML和DL很关键的两点在于对最基本的算法的理解,以及通过编程将算法复现的能力。做好这两点,才有实现更加复杂算法与工作的可能。否则,只会调包,跑跑开源代码,永远是重复别人的工作,没有自己的理解,也就无法将算法应用到实际任务中来。 还好有cs231n这门课程,以DL在计算机视觉中的应用为切入点,讲解了如KNN分类、线性判别函数、神经网络等基本的方法。而且配套的作业的要求是不可以调包,...原创 2018-09-24 11:36:56 · 346 阅读 · 0 评论 -
CS231n作业(二)SVM分类
一、作业说明 CS231n的第二次作业,要求写一个基于svm的多分类程序,实现cifar10的多分类功能,程序中应当体现损失函数计算、梯度计算、交叉验证选择参数、权重可视化等功能。 二、背景知识 损失函数 损失函数分为两部分,前半部分的误差项和后半部分的正则项。前半部分的误差由...原创 2018-10-14 16:02:35 · 649 阅读 · 0 评论 -
cs231n作业(三)softmax分类
一、作业说明 CS231n的第三次作业,要求写一个基于softmax的多分类程序,实现cifar10的多分类功能,程序中应当体现损失函数计算、梯度计算、交叉验证选择参数、权重可视化等功能。 本次作业与第二次作业的基于svm分类要求基本相同,唯一区别在于惩罚函数用的是softmax函数。 二、背景知识 损失函数 ...原创 2018-10-14 20:28:44 · 660 阅读 · 0 评论 -
cs231n神经网络
cs231n神经网络 单个神经元前向传播过程示例 class Neuron(object): #... def forward(self, inputs): """ assume inputs and weights are 1-D numpy arrays and bias is a number """ cell_body_sum=np.sum(...原创 2018-11-03 23:00:42 · 352 阅读 · 0 评论 -
CS231n作业(四)全连接神经网络分类
一、作业说明 本文对应cs231n的用两层神经网络进行cifar10数据集的分类。 程序的源码已上传,也欢迎有需要的读者下载,地址为https://download.csdn.net/download/wjp_ctt/10766477 二、背景知识 关于全连接神经网络的详细知识,可以参见我的上一篇博客,cs231n神经网络,里面包含了神经网络的建立,梯度计算,正则化等基本知识。 在我们的...原创 2018-11-05 22:10:07 · 1444 阅读 · 1 评论 -
深度学习文章阅读(二)——VGG
VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE CLASSIFICATION 与之前的Alexnet和ZFnet最大的不同是,VGG使用了非常小的卷积核(3x3)。 1 模型结构 模型输入:224x224RGB图像 模型中使用的滤波器具有小的感受野:3x3。 3x3卷积核作用:我们可以发现两个堆叠的3x3(中间不含pooling操作)有...原创 2018-12-09 13:42:58 · 312 阅读 · 0 评论 -
目标检测文章阅读(一)——R-CNN
文章题目:Rich feature hierarchies for accurate object detection and semantic segmentation 1 文章简述 使用了CNN来自底向上地产生候选区域(Region Proposal)。 当标记的训练数据稀缺时,监督辅助任务的预训练,然后进行特定区域的微调,产生显着的性能提升。 我们的检测模型包含三个模块: 产生与类别独立的...原创 2018-12-09 20:39:16 · 199 阅读 · 0 评论