NLP
sakura小樱
这个作者很懒,什么都没留下…
展开
-
深度学习----Stanford nlp安装以及环境变量配置问题
文章目录PART1:安装Stanford NLPPART2:安装过程问题1)安装包问题2)路径设置3)环境变量PART3:词性标注测试官网下载:https://stanfordnlp.github.io/CoreNLP/index.html#download      ~~~~~~  &原创 2019-02-15 11:04:41 · 3434 阅读 · 5 评论 -
超越BERT、GPT------屏蔽序列到序列预训练MASS(原理篇)
文章目录1、前言2、新的与训练方法——MASS3、统一的与训练框架序列到序列自然语言生成任务实验微软研究院 AI 头条,转:https://mp.weixin.qq.com/s/0bU6_nsVzi6s6VyO8Y6s2A论文地址:https://arxiv.org/pdf/1905.02450.pdf1、前言 &nb...原创 2019-05-13 10:23:56 · 1510 阅读 · 0 评论 -
深度学习------NLP之依存语法综述
文章目录@[toc]一、概述依存句法分析标注关系 (共14种) 及含义依存句法分析通常满足3个约束依存句法准确率指标二、基于图的依存句法分析代表Chu-Liu/Edmonds Algorithm算法流程三、基于转移的依存句法分析Transition-based parsing(基于贪心决策动作拼装句法树)PCFG(概率上下文无关文法)Lexical PCFG(基于词典的PCFG)四、基于深度学习技...原创 2019-04-03 15:25:13 · 3406 阅读 · 1 评论 -
深度学习----目标检测R-CNN发展(一张图说清)
详解链接:https://blog.csdn.net/Sakura55/article/details/81939034原创 2019-03-28 14:42:29 · 434 阅读 · 0 评论 -
深度学习------Lingvo框架下的加速通道GPipe
开源地址:https://github.com/tensorflow/lingvo/blob/master/lingvo/core/gpipe.pyBigGan、BERT和GPT-2的出现表明,越大的神经网络模型可以带来越好的性能。其中能写出各种假新闻的GPT-2参数就有15亿个之多。如果你也在训练一个参数超多的模型,那么现在有个好消息要告诉你。谷歌在最近公布的Lingvo框架下开源了GP...转载 2019-03-26 16:29:15 · 1063 阅读 · 0 评论 -
金书------LiYu's personal knowledge wiki
原文地址:https://sthsf.github.io/wiki/#Algorithm-DeepLearning-Tensorflow学习笔记 About 关于这个wiki 短中长期计划 Algorithm ...翻译 2019-03-29 14:26:31 · 497 阅读 · 0 评论 -
人工智能 = 人工智障(史上最全的人工智能机器学习、深度学习教程合集目录)
文章目录机器学习激活函数和函数偏差(bias)感知器回归梯度下降生成学习反向传播深度学习最优化和降维长短期记忆(LSTM)卷积神经网络(CNN)递归神经网络(RNN)强化学习生成对抗网络(GAN)多任务学习NLP深度学习和NLP词向量编码器-解码器Python实战案例Scipy和numpyscikit学习TensorflowPyTorch数学线性代数概率论微积分我将这篇文章分为四个部分:机器学习...转载 2019-03-25 11:49:37 · 943 阅读 · 0 评论 -
交叉熵与KL散度(相对熵)总结比较
文章目录关于交叉熵在loss函数中使用的理解信息论1 信息量2 熵3 相对熵(KL散度)4 交叉熵机器学习中交叉熵的应用1 为什么要用交叉熵做loss函数?2 交叉熵在单分类问题中的使用3 交叉熵在多分类问题中的使用参考: ~~~~~ https://blog.csdn.net...原创 2019-03-12 10:58:16 · 1661 阅读 · 3 评论 -
深度学习----Tensorflow再命名实体上常用的函数
函数作用tf.contrib.crf.crf_log_likelihood()        ~~~~~~~~     &nbsp原创 2019-03-12 10:10:04 · 422 阅读 · 0 评论 -
深度学习----命名实体识别(CRF及变种)
<h1 class="entry-title"> <a href="http://www.52nlp.cn/%e4%b8%80%e6%96%87%e8%af%a6%e8%a7%a3%e6%b7%b1%e5%ba%a6%e5%ad%a6%e4%b9%a0%e5%9c%a8%e5%91%bd%e5%90%8d%e原创 2019-02-13 15:42:23 · 5491 阅读 · 1 评论 -
超越BERT的广义自回归预训练方法——XLNET
原文地址:https://blog.csdn.net/qq_31456593/article/details/93015488–摘要:凭借对双向上下文进行建模的能力,与基于自回归语言建模的预训练方法相比,基于BERT的基于自动编码的预训练实现了更好的性能。然而,依赖于对输入使用掩码,BERT忽略了屏蔽位置之间的依赖性,并且受到预训练 - 微调差异的影响。根据这些优点和缺点,我们提出了XLNe...转载 2019-06-20 16:16:22 · 1097 阅读 · 0 评论