自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 Seq2Seq &论文:Learning Phrase Representations......Machine Translation学习笔记

论文:LearningLearningLearning PhrasePhrasePhrase RepresentationsRepresentationsRepresentations usingusingusing RNNRNNRNN Encoder−DecoderEncoder-DecoderEncoder−Decoder forforfor StatisticalStatisticalSta...

2019-07-27 21:34:43 322

原创 循环神经网络介绍及其实现

循环神经网络(RNN)(RNN)(RNN)介绍及其实现目录为什么需要RNNRNNRNN(((循环神经网络)))RNNRNNRNN的结构代码实现为什么需要RNNRNNRNN(((循环神经网络)))在某些任务中,为了能够更好的处理序列的信息,我们要考虑前面的输入和后面的输入的关系,基本的神经网络不具有这种功能,所以我们需要一种新的神经网络来解决这一问题。比如,当我们在理解一句话意思时...

2019-07-19 02:13:31 349

原创 Word2Vec 与《Distributed Representations of Words and Phrases and their Compositionality》学习笔记

什么是Word2Vec目录词嵌入(word embedding)词嵌入的特点嵌入矩阵Skip−gramSkip-gramSkip−gram模型分层SoftmaxSoftmaxSoftmax (HierarchicalSoftmax)(Hierarchical Softmax)(HierarchicalSoftmax)负采样词嵌入(word embedding)...

2019-07-04 18:30:47 3189

原创 哥伦比亚大学 NLP 第三章(第二部分)

哥伦比亚大学 NLP 第三章(第二部分)目录概率上下文无关CKYCKYCKY 算法本部分关于上下文无关相关符号的约定均基于第一部分,本部分将继续沿用不再定义第三章第一部分传送门:https://blog.csdn.net/scanf_yourname/article/details/86777756概率上下文无关文法(PCFGs)(PCFGs)(PCFGs)为什么引入概率上下文无...

2019-02-10 23:39:07 255

原创 哥伦比亚大学 NLP 第三章(第一部分)

哥伦比亚大学 NLP 第三章摘要本章主要讲述了一个叫做ParsingParsingParsing的问题,ParsingParsingParsing的中文翻译叫做解析,是自然语言处理中非常重要的一个问题之一。简介什么是解析ParsingParsingParsingParsingParsingParsing的目的就是为了分析句法结构,就是确定一个句子中每一个单词充当什么成分,比如:主语...

2019-02-10 01:06:45 365

原创 哥伦比亚NLP 第二章

哥伦比亚NLP 第二章目录标记问题(Tagging(Tagging(Tagging problem)problem)problem)生成模型(Generative(Generative(Generative model)model)model)噪声通道模型(Noisy−channel(Noisy-channel(Noisy−channel model)model)model)隐藏马尔...

2019-02-04 19:55:50 370

原创 哥伦比亚大学NLP 第一章

哥伦比亚大学NLP 第一章

2019-02-03 14:45:13 306

原创 Deeplearning.AI 序列模型 Week2(NLP & Word embedding) 6-10

Deeplearning.AI 序列模型 Week2(NLP & Word embedding) 6-10目录摘要Word2Vec负采样GloVe 词向量情绪分类词嵌入除偏摘要这一部分主要讲述了训练一个词嵌入模型的几种方法(Word2VecWord2VecWord2Vec、负采样和GloVeGloVeGloVe 词向量),并实例分析了如何构建一个情绪分类系统。最后讲述...

2019-01-27 22:23:52 195 1

原创 Deeplearning.AI 卷积神经网络 Week4 6-11

Deeplearning.AI 卷积神经网络 Week4 6-11目录神经风格转换可视化深层卷积神经网络神经风格迁移代价函数内容代价函数神经风格损失函数向一维和三维推广精神风格转换什么是精神风格转换精神风格转换是卷积神经网络比较有趣的一个应用,相信很多人的手机里面都有一些比较有趣的滤镜,比如你用手机拍摄一张图片,并用手机一些特定风格的滤镜加以处理,就可以自动生成一张具有你...

2019-01-23 23:36:26 278 1

原创 Deeplearning.AI卷积神经网络 Week2 6-11

Deeplearning.AI卷积神经网络 Week2 6-11目录Google Inception 神经网络如何使用开源资源迁移学习数据扩充计算机视觉现状Google Inception 神经网络Inception模块在构建卷积神经网络的时候我们总要考虑过滤器的大小以及是否添加池化层、在何处添加池化层。Inception神经网络的优点就在于不用我们自己来决定以上问题,而是...

2019-01-22 16:18:28 222

原创 Deeplearning.ai 结构化机器学习项目 Week2 6-10

Deeplearning.ai 结构化机器学习项目 Week2 6-10目录如何解决数据不匹配迁移学习多任务学习端对端的深度学习如何解决数据不匹配1.复习内容在第四节中我们已经学习了一些偏差分析的策略。如果人类水平(Human error)和训练水平(Training error)的相差很大,我们认为可能是训练不到位或者是神经网络规模不够大。我们可以通过给神经网络"喂"更多...

2019-01-15 20:36:44 1012 5

原创 DeepLearning.AI 改善深层神经网络:超参数调试、正则化以及优化 Week3 6 -11

改善深层神经网络:超参数调试、正则化以及优化 Week3 6 -11目录Batch Norm 为什么奏效测试时的Batch NormSoftmax 回归如何训练一个Softmax分类器TensorFlow 初尝试Batch Norm 为什么奏效从表象上理解,Andrew告诉了我们Batch归一化的能够加快学习效率的一个原因是:通过归一化操作,我们所有的数据的均值为0,方差为1...

2019-01-01 01:59:57 499 3

原创 DeepLearning.AI 改善深层神经网络:超参数调试、正则化以及优化 Week2 1-5

DeepLearning.AI 改善深层神经网络:超参数调试、正则化以及优化 Week2 1-5目录Mini-batch 梯度下降指数加权平均以及偏差修正Mini-batch 梯度下降Batch 梯度下降vs Mini-batch 梯度下降什么是Batch 梯度下降?Batch梯度下降就是我们最一般的梯度下降方法,这种方法讲每一组数据作为输入矩阵的一个列向量,将所有的列向量线性组...

2018-12-21 21:27:33 444 1

原创 DeepLearing.AI 神经网络与深度学习 Week4 5-8

#DeepLearing.AI 神经网络与深度学习 第四章5-8##目录###搭建神经网络块###前向传播与反向传播###超参数###神经网络与大脑的关系##搭建神经网络块###概述:本节主要讲述的是如何运用前向传播和反向传播构建一个深度神经网络。###对于某一层的前向传播与后向传播-前向传播对于第l层的前向传播是这样的,ωl\omega ^{l}ωl和blb^{l}bl是第...

2018-12-02 16:41:11 297 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除