深度学习
介绍深度学习的相关知识
知然xu
这个作者很懒,什么都没留下…
展开
-
深度学习之softmax函数(一)
本文关于深度学习的softmax函数做了详细的介绍,并给出深度学习中损失函数的对比链接。一、Softmax详解大神的softmax链接深度学习中的损失函数1深度学习中的损失函数2二、Logistic函数Logistic函数又称逻辑斯谛函数,也就是经常说的sigmoid函数,它的几何形状也就是一条sigmoid曲线。logistic函数的公式形式...原创 2018-08-01 10:14:21 · 15983 阅读 · 2 评论 -
深度学习之最大似然估计、最小二乘、梯度下降(二)
一、机器学习中的最大似然、最小二乘、梯度下降 最小二乘和极大似然估计是目标函数,梯度下降是优化算法。机器学习的核心是一个模型,一个损失函数loss fuction,加上一个优化的算法。一个目标函数可以用不同的优化算法,不同的目标函数也可以用相同的优化算法。所以最小二乘和极大似然根本不是算法,和梯度下降毫无可比性。 PS:最小二乘和极大似然也不是对立的。最小二乘是从函数形式上来看的,极大...原创 2018-08-02 11:04:47 · 2358 阅读 · 0 评论 -
深度学习之激活函数(三)
一、为什么要激活函数神经网络单个神经元的基本结构由线性输出 Z 和非线性输出 A 两部分组成。如下图所示: 其中,f(x) 即为线性输出 Z,g(x) 即为非线性输出,g() 表示激活函数。通俗来说,激活函数一般是非线性函数,其作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。 举个简单的例子,二分类问题,如果不使用激活函数...原创 2018-08-10 22:58:56 · 755 阅读 · 0 评论 -
深度学习之word2vec(四)
一、什么是词向量 词向量最初是用one-hot represention表征的,也就是向量中每一个元素都关联着词库中的一个单词,指定词的向量表示为:其在向量中对应的元素设置为1,其他的元素设置为0。例如我们有5个词组成的词汇表,词"Queen"的序号为2, 那么它的词向量就是(0,1,0,0,0)。 One hot用来表示词向量非常简单,但是却有很多问题。最大的问题...原创 2018-08-12 20:29:38 · 1254 阅读 · 0 评论 -
深度学习之textCNN(五)
本文主要介绍CNN在自然与言处理(文本分类)上的使用,主要分为几个结构(1)专有名词介绍(2)模型介绍(3)应用举例(4)参数调优一、专有名词介绍word vector:词向量、将词汇转换成向量,例如将china转换成300维的向量,则china的word vector就是300。Embeding layer:词嵌入、将一个词映射成为固定维度的稠密向量。cha...原创 2018-08-03 09:56:56 · 1640 阅读 · 0 评论 -
深度学习之RNN和LSTM(七)
一、RNN RNN(Recurrent Neural Networks,循环神经网络)不仅会学习当前时刻的信息,也会依赖之前的序列信息,允许信息持久化。由于其特殊的网络模型结构解决了信息保存的问题。所以RNN对处理时间序列和语言文本序列问题有独特的优势。 标准的RNN模型如下图所示: 由图可以看到RNN引入了隐状态h的概念,h可以对序列形式的数...原创 2018-08-10 22:12:27 · 1237 阅读 · 0 评论