基于深度学习的图像分类
文章平均质量分 94
本专栏依托斯坦福CS231n课程,建立关于CS231n课程学习以及图像分类的一系列博文,目标在于正确使用深度学习技术,在图像分类领域取得较为不错的结果。
独孤呆博
机器学习学习者,分享学习心得,欢迎大家分享讨论~
展开
-
绪论:从第一次图像分类比赛开始~
从一次医学图像分类比赛,引出关于基于深度学习的图像分类专题。原创 2017-10-11 21:19:05 · 1951 阅读 · 5 评论 -
图像分类基本流程及 KNN 分类器
本文首先介绍了图像分类的相关概念,如图像分类的挑战,流程等;之后以KNN算法为例,介绍了基于验证集和交叉验证方法,选取超参数的方法;最后总结用KNN进行分类的情况,并由此引出对于图像分类,仅仅采用像素值是不够的,应该采用跟深层次的方法。原创 2017-10-21 16:30:27 · 8786 阅读 · 0 评论 -
图像的线性分类器(感知机、SVM、Softmax)
本文主要介绍图像的线性分类器。首先介绍感知机,并由感知机引出评价函数与代价函数两个概念;比较了SVM 与 Softmax 两类分类器的区别。原创 2017-10-22 16:32:11 · 4353 阅读 · 0 评论 -
最优化基础:损失函数可视化、折页损失函数 & 梯度计算
本文主要介绍了神经网络或者机器学习中最优化部分最基础的相关概念。首先以低维数据为例,将低维数据的损失函数可视化,给出对于待优化问题的直观印象,并证明了SVM损失函数的分段线性化;接下来讨论了随机搜索、随机局部搜索以及梯度下降三种方法;然后讨论了数值和解析形式的梯度下降方法;最后介绍了随机梯度下降,并解释了为什么随机梯度下降可以获得较好的效果。原创 2017-10-22 23:02:00 · 3905 阅读 · 0 评论 -
反向传播笔记
1. 简单表达式和理解梯度 函数变量在某个点周围的极小区域内变化,而导数就是变量变化导致的函数在该方向上的变化率。要注意的是,在这里已经指出了是在“极小区域”内,所以函数在以某一点的数值只能用来估计所对应的自变量发生微小变化时函数值的变化情况;当自变量的变化值很大时是无法用导数进行估计的。 函数关于每个变量的导数指明了整个表达式对于该变量的敏感程度。指的是自变量变化单位长度的时候,因变原创 2018-01-13 21:12:08 · 545 阅读 · 0 评论 -
神经网络笔记1
1. 快速简介 非线性函数在神经网络的计算上是至关重要的,如果略去这一步,那么两个矩阵将会合二为一,对于分类的评分计算将重新变成关于输入的线性函数。2. 作为线性分类器的单个神经元 一个单独的神经元可以用来实现一个二分类分类器,比如二分类的Softmax或者SVM分类器。在SVM/Softmax的例子中,正则化损失从生物学角度可以看做逐渐遗忘,因为它的效果是让所有突触权重 ww原创 2018-01-13 23:16:49 · 593 阅读 · 0 评论 -
神经网络笔记2
CS231n神经网络笔记2原创 2018-01-14 17:04:10 · 573 阅读 · 0 评论 -
神经网络笔记3
在《神经网络笔记2》中,我们讨论了神经网络的静态部分:如何创建网络的连接、数据和损失函数。本节将致力于讲解神经网络的动态部分,即神经网络学习参数和搜索最优超参数的过程。原创 2018-01-14 21:44:29 · 478 阅读 · 0 评论 -
卷积神经网络入门详解
本文主要内容为 CS231n 课程的学习笔记,主要参考 学习视频 和对应的 课程笔记翻译 ,感谢各位前辈对于深度学习的辛苦付出。在这里我主要记录下自己觉得重要的内容以及一些相关的想法,希望能与大家多多交流~0. 回顾之前所写过的博客 在之前的博客《十四、卷积神经网络(1):介绍卷积神经网络》《十五、卷积神经网络(2):卷积神经网络的结构》中只是介绍性的阐述了一些关于卷积神...原创 2017-11-08 15:52:14 · 17952 阅读 · 2 评论 -
半监督学习
半监督学习笔记原创 2018-01-15 16:28:53 · 20052 阅读 · 4 评论