NLP
文章平均质量分 90
三重极简
之后不更论文的百度翻译了,虽然本意是为了自己查找方便,但太水了,后边有时间会迁移然后删掉的。之后要发也主要是精读的论文及代码。
展开
-
Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog 代码阅读
文章目录前置阅读参数设定数据处理DatasetTrainEncoder前置阅读GLMP:任务型对话中全局到局部的记忆指针网络 论文阅读及代码解析Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog参数设定{'dataset': 'kvr', 'epoch': 1000, 'fixed': False, 'random_seed': 1, 'embeddings_dim': 128, 'hidden': 128原创 2020-11-10 16:16:15 · 663 阅读 · 1 评论 -
基于语义规则的胶囊网络跨域情感分类:Cross-Domain Sentiment Classification by Capsule Network With Semantic Rules
基于语义规则的胶囊网络跨域情感分类论文ABSTRACTI. INTRODUCTION论文ABSTRACTCapsuleDAR利用胶囊网络编码内在的空间的部分-整体关系,构成领域不变知识(domain invariant knowledge),弥补了源域和目标域之间的知识缺口。此外,我们还提出了一个规则网络,将这些规则纳入到胶囊网络中,以提高全面的句子表示学习。I. INTRODUCTION现有的情绪分类方法可以根据所使用的知识和信息分为两类:基于词典(exicon-based)的方法和基于语料库翻译 2020-06-17 12:08:45 · 1052 阅读 · 0 评论 -
GLMP:任务型对话中全局到局部的记忆指针网络 论文阅读及代码解析
GLMP论文翻译代码对应论文详细解读可能的后续......原创 2020-05-30 18:43:34 · 2270 阅读 · 4 评论 -
牛客网自然语言处理(NLP)专项练习总结
牛客网自然语言处理(NLP)专项练习总结过拟合与欠拟合1.有助于解决模型训练过程中的过拟合问题的方法2.解决欠拟合的方法梯度消失1.下面哪些方法有助于解决深度网络的梯度消失问题激活函数1.Sigmoid、tanh和Relu机器学习算法1.k-meansEM算法SVM决策树1.决策树有哪些常用的启发函数卷积优化算法NLP相关1.LSTM2.Word2vecWord2vec是**无监督**学习word...转载 2020-03-08 12:11:12 · 3561 阅读 · 0 评论 -
关于Transformer你需要知道的都在这里------从论文到代码深入理解BERT类模型基石(包含极致详尽的代码解析!)
深入理解Transformer------从论文到代码Attention Is All You Need摘要介绍背景模型结构编码器解码器注意力Attention Is All You Need摘要提出了完全基于注意力机制,避免使用循环和卷积的新的网络结构。介绍RNN模型通常沿输入和输出序列的符号位置进行因子计算,将位置与计算时间中的步骤对齐。它们产生一系列的隐藏状态hth_{t}ht,...原创 2020-02-22 15:20:15 · 3521 阅读 · 4 评论 -
GPT-2生成式多轮对话入门-----深入理解“用于中文闲聊的GPT2模型”项目
深入理解“用于中文闲聊的GPT2模型”项目论文部分提炼DIALOGPT : Large-Scale Generative Pre-trainingfor Conversational Response Generation摘要介绍数据集方法模型结构本文为对于GPT2 for Chinese chitchat项目的理解与学习https://github.com/yangjianxin1/GPT...原创 2020-02-20 17:55:00 · 12334 阅读 · 22 评论 -
使用RNN生成文本(Colab_Tensorflow案列_翻译)
使用RNN生成文本英文原版链接本教程演示了如何使用基于字符的RNN生成文本。我们将使用Andrej Karpathy的《循环神经网络的不合理有效性》中的莎士比亚作品数据集。给定来自此数据的字符序列(“Shakespear”),训练模型以预测序列中的下一个字符(“ e”)。通过重复调用模型,可以生成更长的文本序列。本教程包括使用tf.keras以及eager execution实现的可运行代码...翻译 2019-10-13 13:05:43 · 1215 阅读 · 0 评论