- 博客(17)
- 资源 (1)
- 收藏
- 关注
转载 神经网络基本原理-4.5神经网络之网络正则化方法:L2、L1、DropOut
神经网络基本原理-4.5神经网络之网络正则化方法:L2、L1、DropOut
2017-12-12 15:21:39 890
转载 神经网络基本原理-4.3数据预处理(零中心化+归一化+PCA+白化)
本节主要内容:设置数据和模型 数据预处理权重初始化批量归一化(Batch Normalization)正则化(L2/L1/Maxnorm/Dropout)损失函数小结
2017-12-11 18:10:10 3989 1
转载 神经网络基本原理-4.1神经网络之单个神经元模型
本节主要内容:不用大脑做类比的快速简介单个神经元建模 生物动机和连接作为先行分类器的单个神经元常用的激活函数快速简介: 在不诉诸大脑的类比的情况下,依然是可以对神经网络算法进行介绍的。在线性分类一节中,在给出图像的情况下,是使用s=Wx来计算不同视觉类别的评分,其中W是一个矩阵,x是一个输入列向量,它包含了图像的全部像素数据。在使用数据库CIFAR-10的案例中,x是一个[10x3
2017-12-07 17:46:13 6141
转载 2线性分类器基本原理-2.3线性分类器之SoftMax和交叉熵损失(Cross-Entropy)
图像分类器模型的整体结构:交叉熵(Cross-Entropy)损失 和 SoftMax SVM是最常用的两个分类器之一,而另一个就是Softmax分类器,它的损失函数与SVM损失函数不同。对于学习过二元逻辑回归分类器的读者来说,SoftMax分类器就可以理解为逻辑回归分类器面对多个分类的一般化归纳。SVM将输出f(xi,W)f(x_i,W)作为每个分类的评分(因为无定标,所以难以直接解释)。与SV
2017-12-05 15:20:43 4140
转载 统计学习方法 李航---第7章 支持向量机
原文:http://www.cnblogs.com/YongSun/p/4767130.html支持向量机(support vector machines, SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic pro
2017-12-05 10:51:50 442
转载 2线性分类器基本原理-2.2线性分类器之SVM和折叶损失(Hinge Loss)
图像分类器模型的整体结构: 损失函数:从上一节定义了图像像素值到所属类别的评分函数(score function),该函数的参数是权重矩阵W。在函数中,数据(xi,yi)(x_i,y_i)是给定的,不能修改。但是我们可以调整权重矩阵这个参数,使得评分函数的结果与训练数据集中图像的真实类别一致,即评分函数在正确的分类的位置应当得到最高评分(score)。 回到之前那张猫的图像分类例子,它有针对猫、
2017-12-04 17:53:02 1946
转载 2线性分类器基本原理-2.1线性分类器之前向推断过程
线性分类器的基本知识:线性分类器简介 线性评分函数 阐明线性分类器 损失函数:多类SVM和SoftMax 基于Web的可交互线性分类器原型K最近邻(k-Nearest Neighbor,KNN)分类器存在以下不足:分类器必须记住所有训练数据并将其存储起来,以便于未来测试数据用于比较。这在存储空间上是低效的,数据集的大小很容易以GB计。对一个测试图像进行分类需要和所有训练图像做对比,算
2017-12-04 10:26:16 2565
原创 6经典卷积神经网络模型之AlexNet-6.2用于ImageNet的AlexNet网络的假数据训练
在TensorFlow中实现这个网络模型 运行计算图: 0、加载数据集 1、启动会话 2、一轮一轮的训练模型 2.1、在每一轮中分多个批次喂给数据 2.1.1在每个批次上运行训练节点,训练模型 2.1.2经过若干个批次后,评估当前的模型,计算训练集上的损失值,准确率 3、在测试集上评估最终的模型:损失值,准确率
2017-12-01 16:16:47 524
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人