BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding

BERT 个人翻译,并不权威。 paper https://arxiv.org/pdf/1810.04805.pdf BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding 深度双向Trans...

2019-04-10 15:23:15

阅读数 38

评论数 0

GLUE多任务数据集介绍

GLUE 是一个自然语言任务集合,包括以下这些数据集 name full name task chinese MNLI Multi-Genre NLI Natural language inference 自然语言推断 QQP Quora Quora Question Pair...

2019-04-07 18:14:43

阅读数 18

评论数 0

pytorch 实现GPT2

papers Gaussian Error Linear Units translate to chinese Attention Is All You Need translate to chinese Improving Language Understanding by Generative...

2019-03-23 21:47:14

阅读数 47

评论数 0

OpenAI GPT pytorch 实现微调 ROCStories 数据集

implement OpenAI gpt papers Gaussian Error Linear Units translate to chinese Attention Is All You Need translate to chinese Improving Language Unders...

2019-03-20 17:46:56

阅读数 44

评论数 0

Transformer Attention Is All You Need

Attention Is All You Need paper https://arxiv.org/pdf/1706.03762.pdf 注意力就是你需要的所有 摘要 主导的序列转换模型是基于复杂的循环或卷积神经网络,包括编码器和解码器。最佳性能 的模型还通过注意力机制连接编码器和...

2019-03-14 16:50:43

阅读数 300

评论数 0

OpenAI GPT Improving Language Understanding by Generative Pre-Training

paper OpenAI GPT Improving Language Understanding by Generative Pre-Training https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/langua...

2019-03-12 17:07:15

阅读数 740

评论数 0

OpenAI GPT-2语言模型是非监督多任务学习器 Language Models are Unsupervised Multitask Learners

paper https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf 个人翻译,并不权威 语言模型是非监督多任务学习器 摘要 自然语言处理任务,比如问答,机器翻译,阅读理解和摘要,通常是通过在具体...

2019-03-09 18:48:22

阅读数 237

评论数 0

高斯误差线性单元 Gaussian Error Linear Units(GELU)

paper https://arxiv.org/abs/1606.08415 个人翻译,并不权威 高斯误差线性单元 摘要 我们提出高斯误差线性单元(GELU),一个高性能的神经网络激活函数。GELU的非线 性是通过随机地应用恒等或0来映射一个神经网络的输入的随机正则化的预期转换。 GELU的非线...

2019-03-07 20:26:20

阅读数 111

评论数 0

NLP 自然语言处理数据集 粗略

收集匆忙,并不保证准确 dataset index dataset Abbreviation task note 1 LiBriSpeech Automatic speech recogniton 2 WSJ Automatic speech recogniton ...

2019-02-26 17:16:41

阅读数 135

评论数 0

NLP 自然语言处理 中文任务列表

table I translated it myself. It may not be authoritative. index English Chinese 1 Automatic speech recogniton 自动语音识别 2 CCG supertagging CC...

2019-02-26 12:48:21

阅读数 87

评论数 0

NLP自然语言处理任务列表 task list

task list Automatic speech recognition CCG supertagging Common sense Constituency parsing Coreference resolution Dependency parsing Dialogue Domain ...

2019-02-26 12:42:08

阅读数 53

评论数 0

pytorch实现generating names with a character-level RNN

papers The Unreasonable Effectiveness of Recurrent Neural Networks https://karpathy.github.io/2015/05/21/rnn-effectiveness/ Understanding LSTM Netwo...

2019-02-21 21:59:33

阅读数 140

评论数 0

pytorch实现classifying names with a character-level RNN

papers The Unreasonable Effectiveness of Recurrent Neural Networks https://karpathy.github.io/2015/05/21/rnn-effectiveness/ Understanding LSTM Netwo...

2019-02-19 14:40:45

阅读数 38

评论数 0

pytorch实现 spatial transformer network with mnist

涉及的论文 spatial transformer networks in the DeepMind paper <https://arxiv.org/abs/15 06.02025> 转换对比 step loss step ...

2019-02-15 23:40:03

阅读数 44

评论数 0

pytorch实现 chatbot聊天机器人

涉及的论文 Neural Conversational Model https://arxiv.org/abs/1506.05869 Luong attention mechanism(s) https://arxiv.org/abs/1508.04025 Sutskever et al. htt...

2019-02-02 16:26:00

阅读数 245

评论数 0

pytorch 实现迁移学习 transfer learn区分 蜜蜂和蚂蚁

数据集 这个数据集是一个很小的imagenet的子集. 下载链接 https://download.pytorch.org/tutorial/hymenoptera_data.zip 下载下来以后 unzip hymenoptera_data.zip 文件夹结构 ./data/hymenopt...

2019-02-01 22:23:34

阅读数 35

评论数 0

pytorch实现DCGAN 生成人脸 celeba数据集

涉及的论文 GAN https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf DCGAN https://arxiv.org/pdf/1511.06434.pdf 测试用的数据集 Celeb-A Faces ...

2019-01-29 01:11:21

阅读数 170

评论数 0

测试pytorch 调用gpu 加速矩阵相乘. accelerate matrix multiplication

下面是我机器中的cpu和gpu型号 31.4 GiB Intel® Core™ i7-8700K CPU @ 3.70GHz × 12 GeForce GTX 1080 Ti/PCIe/SSE2 64-bit 代码会在下面给出 先看下整体的输出效果 对比了float32 float64 分别用...

2019-01-24 16:38:52

阅读数 107

评论数 0

测试minpy 调用gpu 加速矩阵相乘. accelerate matrix multiplication

测试minpy 调用gpu加速矩阵相乘,已经写了几篇文章.前几篇文章得到的结果不太好,主要原因是跟想象中的结果并不是很相同. 主要有两点,一个是前几篇测试加速的效果并不是很好,矩阵要很大的时候才能看到明显的加速.另一个是我一个先验的经验认为float32的加速效果要明显比float64的加速效果要...

2019-01-11 16:15:41

阅读数 147

评论数 0

测试minpy 调用gpu 加速numpy的矩阵相乘. 小矩阵相乘 1到100万个元 多次

测试minpy 调用gpu加速numpy的矩阵相乘.小矩阵相乘,前面的文章中已经看到行数超过1000的方阵,基本上gpu就能起到加速效果.我们现在想知道的是具体的minpy 和numpy 性能的拐点.以此帮助我们决定使用cpu还是gpu. 具体结果测试应该是根据机器所不同的,我们这里的结果只是我们...

2019-01-10 13:56:43

阅读数 153

评论数 0

提示
确定要删除当前文章?
取消 删除
关闭
关闭