![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 92
未名湖畔的落叶
圆月照方窗,有规有矩。长竿垂短钓,能屈能伸。
展开
-
xlnet中文文本分类
XLNetXLNetXLNet 模型由卡内基梅隆大学与 GoogleBrainGoogle BrainGoogleBrain 团队在 2019 年 6 月携手推出的 ,其在 20 项 NLPNLPNLP 任务中超过 BERTBERTBERT 模型,且在其中 18 项任务中拿到最优成绩,包括机器问答、自然语言推断、情感分析和文档排序等。同 BERTBERTBERT 一样,我这里就不讲原理了,网上...原创 2019-12-20 16:01:50 · 2328 阅读 · 4 评论 -
深度学习(十二)-基于 Bert 的情感分析
BERT(BidirectionalEncoderRepresentationsfromTransformers)BERT(BidirectionalEncoderRepresentations fromTransformers)BERT(BidirectionalEncoderRepresentationsfromTransformers) 是 GoogleGoogleGoogle 开发的一...原创 2019-05-28 18:44:04 · 11674 阅读 · 8 评论 -
深度学习(十一)-基于LSTM的情感分析
很久时间没有更新博客了,这里我们一起回顾一下前面学习的深度学习的基本知识,然后进行一次实战分析。循环神经网络 (RNNRNNRNN) 目前是自然语言处理中应用最为火热的一种神经网络,当然前提是不算上 GoogleGoogleGoogle 新开源的 BERTBERTBERT ,BERTBERTBERT 相对于 RNNRNNRNN 准确率有很大提升,但是由于训练时间过长等原因,还没有大面积普及。...原创 2019-05-25 14:48:35 · 5695 阅读 · 7 评论 -
深度学习(十)-AI起名
上文我们介绍了卷积神经网络极其变形 LSTMLSTMLSTM,GRUGRUGRU 的原理,我们来讲讲用法。循环神经网络主要使用在自然语言处理方面,自然语言处理主要使用的是语言信息,由字和词组成,所以我们一般需要将这些字或者词转为向量,这就不得不提到一个概念:词嵌入,即词向量。词嵌入 在最初做自然语言处理时,采用 one−hotone-hotone−hot 编码来表示一个词,例如一个语料:...原创 2019-04-19 18:18:24 · 7346 阅读 · 4 评论 -
深度学习(九)-循环神经网络
前面我们学习了全连接神经网络、卷积神经网络,这些网络的传递都是单向,元素之间相互独立,输入与输出也是毫无关系,这样虽然让神经网络容易学习,但是一定程度上却弱化了神经网络的能力。而我们这一章要介绍的循环神经网络,就是在一些方面对前馈神经网络的一种补充。 在实际生活中,很多元素都是相互联系的,比如一个人说了:我喜欢《黎明前的黑暗》,请帮我放一下___ ,大家都知道是这里应该补充《黎明前的黑暗》...原创 2019-04-18 19:28:29 · 958 阅读 · 0 评论 -
深度学习(八)-CIFAR-10分类
CIFAR−10CIFAR-10CIFAR−10 数据集也是神经网络中一个非常经典的数据集,该数据集共有 60000 张彩色图像,这些图像是32*32,分为10个类 [′airplane′,′automobile′,′bird′,′cat′,′deer′,′dog′,′frog′,′horse′,′ship′,′truck′]['airplane', &am...原创 2019-04-13 14:05:01 · 16170 阅读 · 6 评论 -
深度学习(七)-卷积神经网络实现 MNIST 手写数字分类
在深度学习(五)-全连接神经网络实现 MNISTMNISTMNIST 手写数字分类中,我是用全连接神经网络实现了 MINSTMINSTMINST 手写数字分类,这里我就不再介绍 MINSTMINSTMINST 数据集和数据的处理了,我们直接进入主题,创建卷积神经网络。网络模型创建 我们可以先创建一个最简单的三层神经网络,两层卷积层,两层池化层,一层全连接层: class simpleC...原创 2019-04-13 13:16:43 · 3783 阅读 · 2 评论 -
深度学习(六)-卷积神经网络
与全连接神经网络一样,卷积神经网络也是由神经元构成的,但是网络的层结构却不相同,在深度学习(四)-前馈神经网络中我们了解到,全连接神经网络由一系列隐藏层构成,每个隐藏层又是由很多个神经元构成,其中每个神经元都和前一层的所有神经元相关联,但是每一层中的神经元是相互独立的。而在卷积神经网络中的每一个神经元都只和下一层中某个局部窗口内的神经元相连,构成一个局部连接网络,组成卷积层,如下图所示: ...原创 2019-04-13 08:30:11 · 1151 阅读 · 0 评论 -
深度学习(五)-全连接神经网络实现 MNIST 手写数字分类
前面我们讲了这么多理论知识,下面我们来简单的来一个实战学习,利用全连接神经网络实现 MNIST 手写数字分类。MNIST数据集是一个手写体数据集,包括 0~9 这 10 个数字,图片大小是 28 x 28 的灰度图。数据集由四部分组成,分别是: 其内容为: 数据处理 在开始训练网络之前,良好的数据预处理和参数初始化可以使训练效率更高,效果更优 。如果有了解机器学...原创 2019-04-12 14:28:21 · 12642 阅读 · 3 评论 -
深度学习(四)-前馈神经网络
全连接神经网络是一种最基本的神经网络结构,上一章我们介绍过,它是属于前馈网络中的一种。在前馈神经网络中,各神经元分别属于不同的层。每一层的神经元可以接收前一层神经元的信号,并产生信号输出到下一层。第 0 层叫输入层,最后一层叫输出层,其它中间层叫做隐藏层,表现形式如下图所示。 反向传播算法...原创 2019-04-11 19:31:28 · 15342 阅读 · 0 评论 -
深度学习(三)-神经网络基础
前面我们利用pytorch实现了基于机器学习中最基本的的线性回归和逻辑回归,下面我们就正式开始接触神经网络,神经网络一般可以看作是一个非线性模型,其基本组成单位为具有非线性激活函数的神经元,通过大量神经元之间的连接,使得神经网络成为一种高度非线性的模型。神经元之间的连接权重就是需要学习的参数,可以通过梯度下降方法来进行学习。神经元 神经元是构成神经网络的基本单元,本质是通过上一层的输入与...原创 2019-04-11 13:59:30 · 1117 阅读 · 1 评论 -
深度学习(二)-逻辑回归
逻辑回归很多人并不陌生,我再前面机器学习的逻辑回归:LR这一章节中也有过简单的描述。 Logistic 回归不仅可以解决二分类问题,也可以解决多分类问题,但是二分类问题最为常见同时也具有良好的解释性 。 对于二分类问题, Logistic 回归的目标是希望找到一个区分度足够好的决策边界,能够将两类很好地分开 。而在前面我也讲过,要找到某函数的最大值,最好的方法是沿着该函数的梯度方向寻找,所...原创 2019-04-10 15:43:47 · 593 阅读 · 2 评论 -
深度学习(一)-线性回归
随着人工智能的发展,深度学习变得越来越炙手可热,所以博主也来凑一下热闹,抽空开始进行深度学习,下面是我自己 的一些学习经验分享,如果有错,请各位看官勿喷,帮忙指出一下,不胜感激。 现在最热的深度学习框架为 TensorFlowTensorFlowTensorFlow、PytorchPytorchPytorch 等等,下面我主要写的对象就为PytorchPytorchPytorch,Pyto...原创 2019-04-10 14:31:11 · 1317 阅读 · 2 评论