Abner

博观而约取,厚积而薄发,不可择焉不精,语焉不详!

排序:
默认
按更新时间
按访问量

Batch Normalization(BN)

优点Batch Normalization(BN)有什么优点?BN的优点是多个并存,这里只提一个个人认为最容易理解的优点和其原因。训练时的问题尽管在讲解神经网络概念的时候,神经网络的输入指的是一个向量 。但在实际训练中有下面的训练方式:随机梯度下降法(Stochastic Gradient De...

2018-01-16 14:49:13

阅读数:156

评论数:0

Linux下安装任意版本的tensorflow命令

终端或命令行下输入:     sudo pip install --upgrade https://storage.googleapis.com/tensorflow/linux/cpu/tensorflow-0.12.1-cp27-none-linux_x86_64.whl 上述只是一个样例,...

2017-07-05 12:02:13

阅读数:4302

评论数:0

隐马尔科夫模型HMM自学

崔晓源 翻译 我们通常都习惯寻找一个事物在一段时间里的变化规律。在很多领域我们都希望找到这个规律,比如计算机中的指令顺序,句子中的词顺序和语音中的词顺序等等。一个最适用的例子就是天气的预测。 首先,本文会介绍声称概率模式的系统,用来预测天气的变化 然后,我们会分析这样一个系统,我们希望预测的...

2017-06-20 15:27:24

阅读数:402

评论数:0

卷积神经网络反向传播理论推导

本文首先简单介绍CNN的结构,并不作详细介绍,若需要了解推荐看CS231n课程笔记翻译:卷积神经网络笔记。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导...

2017-06-08 10:44:25

阅读数:8096

评论数:16

人工神经网络

一、神经网络的模型: 图1 两层全连接神经网络模型     这个是一个带有两个全连接层的神经网络,神经网络,一般不把输入层算在层数之中。 1、神经元: 图2 神经元的数学模型     从单个神经元来看,每个神经元可以看做是一个感知机,可以用来做决策,从图中可以看出,根据输入的线性组合,经过...

2017-05-24 23:45:16

阅读数:3422

评论数:0

线性分类器-KNN、多类SVM、Softmax

本文只是记录一下实现的代码,具体的思想还请看cs231n的课程笔记,其讲解的非常好,智能单元翻译的也很不错。 一、CIFAR-10数据集: 图1 CIFAR-10示例 二、KNN 图2 KNN分类器示例   如图所示,K的取值不同得出来的分类结果也可能是不同的,因此需要对k进行寻参,找出在...

2017-05-11 16:22:52

阅读数:709

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭