yiyele的博客

make hard to easy!!

设计模式系列

设计模式系统总结: 1.设计模式-创建型软件设计模式(一) 2.设计模式-创建型软件设计模式(二) 3.设计模式-创建型软件设计模式(三) 4.设计模式-结构型软件设计模式(一) 5.设计模式-结构型软件设计模式(二) 6.设计模式-结构型软件设计模式(三) 7.设计模式-结构型软件...

2017-07-16 12:00:56

阅读数 8488

评论数 2

算法与数据结构系列

本篇是算法与数据结构系列的目录: 1.排序算法总结 2.红黑树 3.在线生成红黑树作者:yiyele 转载请保留原文地址:http://write.blog.csdn.net/mdeditor#!postId=74317447如果本文对您有所帮助,欢迎您扫码下图所示的微信支付点赞码对本文...

2017-07-04 14:10:24

阅读数 8144

评论数 0

C++系列总结

本篇blog是关于所有C++文章的所有链接总结: 1.从C++类创建后,自动创建的函数有哪些开始谈起 2.this指针介绍 3.C++模板详解 4.C++关键字总结 5. C++内存处理 6. 内存映射文件原理探索 7.C++中使用内存映射文件存取struct...

2017-06-29 18:21:51

阅读数 9912

评论数 0

关于机器学习-深度学习的总结

最近在知乎上看到了一个机器学习的相关学习流程,觉得很有道理,所以,后面的blog我将开始具体的分享一些机器学习的学习笔记。目前已经更新的blog有: 数据篇: 1.关于中英文语料的获取途径总结 基础总结篇: 1.机器学习中的相似性度量 2.机器学习中的损失函数总结 3.pearson相...

2017-02-28 13:41:28

阅读数 11825

评论数 1

tensorflow serving服务器安装过程总结

1.安装环境 centos cuda 9 cudnn 7 2.非gpu版本tf_serving安装 tf_serving的安装(非gpu版本)(cuda 9 cudnn 7) 编译tf_serving的过程 git clone -b r1.3 --recurse-submodules htt...

2019-05-06 14:54:13

阅读数 195

评论数 0

bert模型代码介绍

关于bert模型的细节记录 1. Input 1.1. pretrain 输入包含七个部分,分别为 input_ids,input_mask,segment_ids,masked_lm_positions,mask_lm_ids,masked_lm_weights,next_sentence_l...

2019-05-06 14:46:28

阅读数 125

评论数 0

tensorflow- tf.reduce_all

函数 tf.reduce_all 示例

2019-04-09 20:01:34

阅读数 161

评论数 0

tensoflow-unstack

函数unstack 示例

2019-04-09 19:59:29

阅读数 119

评论数 0

tensorflow-tile_batch

函数tensorflow.contrib.seq2seq.tile_batch 作用 主要是对tensor复制 import tensorflow.contrib.seq2seq as seq2seq 示例

2019-04-09 19:49:56

阅读数 123

评论数 0

论文总结:Ask Me Anything: Dynamic Memory Networks for Natural Language Processing

论文总结:Ask Me Anything: Dynamic Memory Networks for Natural Language Processing简介具体结构Input ModuleQuestion ModuleEpisodic Memory ModuleAnswer Module 简介 ...

2018-09-30 14:32:58

阅读数 256

评论数 0

如何将pyspark的rdd数据类型转化为DataFrame

简述   在用pyspark进行开发的时候,经常会遇到如何将pyspark读取的数据使用xgboost的模型进行训练,当然,如果是使用scala,可以直接使用xgboost4j,这个库里面提供了可以读取rdd的数据文件的函数接口,通过scala可以很简单的进行训练,但是对于python用户来说,...

2018-09-17 11:03:33

阅读数 1895

评论数 0

关于中英文语料的获取途径总结

中文: https://github.com/candlewill/Dialog_Corpus 这个是一个集合,包括之前答主的答案! 包含的语料包括了 1)小黄鸡 xiaohuangji50w_nofenci.conv.zip 2)dgk_shooter_min.conv.zip 中...

2018-09-01 11:51:26

阅读数 3997

评论数 1

关于RNN相关模型-tensorflow源码理解

本文主要是对tensorflow中lstm模型中的c,h进行解析。rnn_cell_impl.py 1.关于RNN模型 在rnn_cell_impl.py的tensorflow源码中,关于RNN部分实现的类主要是BasicRNNCell, 首先在build函数中,定义了两个变量...

2018-08-23 21:03:32

阅读数 288

评论数 0

关于transformer模型总结(源码)

本文主要是对transfermer模型的源码进行解析: transfermer主要结构是由encoder和decoder构成。其中,encoder是由embedding + positional_encoding作为输入,然后加一个dropout层,然后输入放到6个multihead_a...

2018-08-21 19:19:41

阅读数 5845

评论数 0

grid lstm模型简介

理论介绍 主要通过论文《Grid Long short-Term Memory》。 grid LSTM沿着任何或所有维度(包括网络深度)部署cell。 一个Grid LSTM网络的block有N个hidden vector h1, …, hN和N 个memory vectorm1,m2.....

2018-08-21 18:26:39

阅读数 1320

评论数 2

Normalization Technique总结

1.相关介绍: 神经网络在多个领域取得了非凡的成就,例如,语音识别,图像识别等。所以,训练神经网络是个重要的任务,gradient descent常被用来寻来拿神经网络。但在网络比较深时,gradient descent容易出现梯度消失或梯度爆炸等现象。因此,在使用SGD算法对神经网络进行优化时...

2018-08-06 20:33:20

阅读数 355

评论数 0

SRU介绍

1.背景介绍     RNN模型在机器翻译,语言模型,问答系统中取得了非凡的成就,由于RNN的结构,当前的层输入为前一层的输出,所有RNN比较适合时间序列问题,但也正是由于这种串行结构,限制了...

2018-08-03 19:52:14

阅读数 2035

评论数 0

tensorflow中关于BahdanauAttention以及LuongAttention实现细节

背景介绍 在 TensorFlow 中,Attention 的相关实现代码是在 tensorflow/contrib/seq2seq/python/ops/attention_wrapper.py 文件中,这里面实现了两种 Attention 机制,分别是 BahdanauAttention 和...

2018-08-03 19:38:54

阅读数 3394

评论数 0

LSTM模型的两种分解技巧

介绍 LSTM模型在语言模型,机器翻译等领域取得了非凡的成就,然后LSTM网络有几百万的参数以及需要数周在多GPU系统中进行训练。因此,一下介绍两种方法来缩减网络参数以及训练时间。两种方法分别为factorized LSTM(FLSTM)以及group LSTM(GLSTM)。 FLSTM...

2018-07-21 11:13:22

阅读数 1598

评论数 0

高效的文本分类

相关介绍 文本分类任务是自然语言处理中重要的任务之一,近来,神经网络的使用变得更为普遍,神经网络在文本分类任务中表现更好,但是在训练和测试时间比较慢,限制了在大型语料库中的使用。 与此同时,线性分类器在文本分类器中被认为是一种很好的baseline,尽管他们很简单,但当正确的特征被使用时,经常...

2018-07-11 21:18:00

阅读数 515

评论数 0

提示
确定要删除当前文章?
取消 删除