深度学习
追求卓越583
这个作者很懒,什么都没留下…
展开
-
端到端的深度学习(end-to-end deep learning)
相对于深度学习,传统机器学习的流程往往由多个独立的模块组成,比如在一个典型的自然语言处理(Natural Language Processing)问题中,包括分词、词性标注、句法分析、语义分析等多个独立步骤,每个步骤是一个独立的任务,其结果的好坏会影响到下一步骤,从而影响整个训练的结果,这是非端到端的。而深度学习模型在训练过程中,从输入端(输入数据)到输出端会得到一个预测结果,与真实结果相比较...原创 2019-11-14 16:00:41 · 2964 阅读 · 0 评论 -
caffe配置问题与解决方法集锦
最好的方案,安装和编译caffe时不会出现问题:https://blog.csdn.net/zhuiqiuzhuoyue583/article/details/88756053问题1:./include/caffe/util/cudnn.hpp:8:34: fatal error: caffe/proto/caffe.pb.h: 解决方法caffe.pb.h丢失问题解决方...原创 2019-03-23 10:24:15 · 1050 阅读 · 0 评论 -
【深度学习】深入理解优化器Optimizer算法(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)
1.http://doc.okbase.net/guoyaohua/archive/284335.html2.https://www.cnblogs.com/guoyaohua/p/8780548.html 原文地址(英文论文):https://www.cnblogs.com/guoyaohua/p/8780548.html原创 2018-11-12 15:10:31 · 1593 阅读 · 0 评论 -
人工神经网络(三)单层感知器代码实现
篇文章,我们介绍了什么是单层感知器,这节课,我们来看看如果用代码实现一个单层感知器 实验问题:假设平面坐标系上有三个点(3,3),(4,3)这两个坐标点的标签为 1 ,(1,1) 这个坐标的标签为-1 ,构建神经网络来分类 思路:二维数据,需要两个数据点,将神经元偏置设置成另一个输入点,一共需要三个输入点 输入数据:(1,3,3),(1,4,3),(1,1,1) 数据对应标签为...原创 2018-08-08 18:46:20 · 1847 阅读 · 0 评论 -
人工神经网络(二)单层感知器
本篇文章,我们开始介绍最简单的神经网络结构,感知器,在了解原理的基础上,下篇博客我们代码实现一个单层感知器: 感知器:人工神经网络的第一个里程碑是感知机perceptron, 这个名字其实有点误导, 因为它根本上是做决策的。 一个感知机其实是对神经元最基本概念的模拟 ,都未必有多少网络概念,他就是一个自动做决策的机器。比如说你要决定今天出不出去看电影, 你要考虑3个因素, 一个是女朋友在不...原创 2018-08-08 16:29:51 · 2855 阅读 · 0 评论 -
人工神经网络(一)概述
百科解释:人工神经网络(Artificial Neural Network,即ANN ),是20世纪80 年代以来人工智能领域兴起的研究热点。它从信息处理角度对人脑神经元网络进行抽象, 建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励...原创 2018-08-08 16:28:54 · 1571 阅读 · 0 评论 -
人工神经网络(五)梯度下降法
在解决了线性求解问题之后,我们开始挑战更复杂的问题,开始研究非线性划分的问题,类似求解异或问题这样,而解决这类问题,我们先要学习一个概念,就是梯度下降(Gradient Descent),这个方法是解决机器学习领域最常采用的方法之一。 梯度在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y), 分别对x,y求偏导数,求得的梯度...原创 2018-08-15 08:41:15 · 2030 阅读 · 0 评论 -
人工神经网络(四)感知器学习规则推导
目前我们接触到的感知器学习规则,数学建模之后,我们知道如何调整权值,使得感知器的切分符合我们的预期输入,下面我们就用一个小推导,看看感知器是如何进行权值调整的: 理论判定边界 判定边界由那些使得净输入n为零的输入向量确定: n=1WTP+b=w1,1p1+w1,2p2+b为了使该实例更加具体,现将权值和偏置值设置为: w1,1=1,w1,2=1,b=-1 那么判定边界是 n=1...原创 2018-08-15 08:39:38 · 1283 阅读 · 0 评论 -
LSTM 网络中几个门的理解
个人认为下面这篇博文非常适合初学或者学的很浅的朋友。 转自http://www.jianshu.com/p/9dc9f41f0b29经常接触LSTM,GRU,RNN这些模型,对于LSTM的印象只是知道它用来解决梯度消失梯度爆炸问题,对于长距离的句子的学习效果不好的问题,而且大概知道里面是加了一些参数,加了门单元来选择忘记和记住一些信息。但是具体公式没有推过,所以理解的不够深。但是上面这篇长博文,作...原创 2018-05-20 11:42:51 · 7092 阅读 · 0 评论 -
卷积神经网络在NLP领域的实践:文本分类
众所周知,卷积神经网络(CNN)在计算机视觉领域取得了极大的进展,但是除此之外CNN也逐渐在自然语言处理(NLP)领域攻城略地。本文主要以文本分类为例,介绍卷积神经网络在NLP领域的一个基本使用方法,由于本人是初学者,而且为了避免东施效颦,所以下面的理论介绍更多采用非数学化且较为通俗的方式解释。0.文本分类所谓文本分类,就是使用计算机将一篇文本分为a类或者b类,属于分类问题的一种,同时也是NLP中...原创 2018-04-28 01:35:36 · 4638 阅读 · 1 评论 -
tensor的维度(轴)—axis的解释
张量,或tensor,可以看作是向量、矩阵的自然推广,我们用张量来表示广泛的数据类型。张量的阶数有时候也称为维度,或者轴,轴这个词翻译自英文axis。譬如一个矩阵[[1,2],[3,4]],是一个2阶张量,有两个维度或轴。沿着第0个轴你看到的是[1,2],[3,4]两个向量,相当于数学中一个2x2的矩阵,按行取出,每一行作为一个向量;沿着第1个轴你看到的是[1,3],[2,4]两个向量,相当于数学...原创 2018-04-24 00:59:09 · 2896 阅读 · 0 评论