DL+NLP
文章平均质量分 95
龙心尘
资深深度学习研发工程师,多年深度学习自然语言处理、推荐算法经验,ERNIE系列项目开发者之一,知名AI类公众号深度学习专栏主编。专注于算法研发与优化,负责过基于海量数据的文本相似度、长句预测、文本审核、评论观点抽取、个性化推荐、智能营销、智能画像等项目。欢迎联系和交流。
展开
-
【视频】超越BERT的最强中文NLP预训练模型艾尼ERNIE官方揭秘
分章节视频链接:http://abcxueyuan.cloud.baidu.com/#/course_detail?id=15076&courseId=15076完整视频链接:http://play.itdks.com/watch/8591895艾尼(ERNIE)是目前NLP领域的最强中文预训练模型。百度资深研发工程师龙老师,通过直播带开发者走近最强中文NLP预训练模型ERNI...原创 2019-10-18 09:04:19 · 2050 阅读 · 0 评论 -
图解Word2vec
作者: 龙心尘时间:2019年4月出处:https://blog.csdn.net/longxinchen_ml/article/details/89077048审校:龙心尘作者:Jay Alammar编译:张秋玥、毅航、高延嵌入(embedding)是机器学习中最迷人的想法之一。 如果你曾经使用Siri、Google Assistant、Alexa、Google翻译,甚至智能手机键...原创 2019-04-08 08:58:57 · 9701 阅读 · 4 评论 -
深入理解BERT Transformer ,不仅仅是注意力机制
作者: 龙心尘时间:2019年3月出处:https://blog.csdn.net/longxinchen_ml/article/details/89058309大数据文摘与百度NLP联合出品作者:Damien Sileo审校:百度NLP、龙心尘编译:张驰、毅航为什么BERT模型这么重要BERT是google最近提出的一个自然语言处理模型,它在许多任务检测上表现非常好。如:问答、自...原创 2019-04-06 17:47:51 · 3800 阅读 · 1 评论 -
用可视化解构BERT,我们从上亿参数中提取出了6种直观模式
作者: 龙心尘时间:2019年1月出处:https://blog.csdn.net/longxinchen_ml/article/details/89036531大数据文摘联合百度NLP出品审校:百度NLP、龙心尘编译:Andy,张驰来源:towardsdatascience.comhttps://blog.csdn.net/longxinchen_ml/article/detail...原创 2019-04-04 22:51:19 · 1881 阅读 · 0 评论 -
图解Transformer(完整版)
审校:百度NLP、龙心尘翻译:张驰、毅航、Conrad原作者:Jay Alammar原链接:https://jalammar.github.io/illustrated-transformer/编者按:前一段时间谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型...原创 2019-01-17 23:45:25 · 397707 阅读 · 123 评论 -
深度学习与自然语言处理(8)_斯坦福cs224d RNN,MV-RNN与RNTN
这篇课堂笔记将介绍不同类型的RNN(递归神经网络),并介绍它在NLP领域的应用和优势。原创 2016-07-30 22:22:29 · 7761 阅读 · 3 评论 -
深度学习与自然语言处理(7)_斯坦福cs224d 语言模型,RNN,LSTM与GRU
本文为斯坦福大学CS224d课程的中文版内容笔记,已得到斯坦福大学课程@Richard Socher教授的授权翻译与发表原创 2016-07-18 10:50:02 · 10059 阅读 · 3 评论 -
深度学习与自然语言处理(3)_斯坦福cs224d Lecture 3
这是斯坦福CS224d深度学习与自然语言处理的第3课,这节课先会介绍单层和多层神经网络和它们在机器学习分类任务中的应用, 接着介绍如何利用反向传播算法来训练这些神经网络模型(在这个方法中,我们将利用偏导数的链式法则来层层更新神经元参数)。在给出神经网络以及这些算法严谨的数学定义后,介绍了训练神经网络的一些实用的技巧和窍门。原创 2016-06-19 09:32:00 · 16141 阅读 · 1 评论 -
深度学习与自然语言处理(5)_斯坦福cs224d 大作业测验2与解答
原本打算把作业和答案做个编排,一起发出来给大家看,无奈代码量有点大,贴上来以后文章篇幅过长,于是乎题目的代码解答放到了百度云盘,欢迎自行下载和运行或者调整。原创 2016-07-03 18:50:13 · 18778 阅读 · 0 评论 -
深度学习与自然语言处理(6)_斯坦福cs224d 一起来学Tensorflow part1
Tensorflow是Google提供资金研发的,比较全,支持分布式,同时有Google这样的亲爹在,我猜资源倾斜也是迟早的事情。今天的重点自然是Tensorflow,其他的框架也都很好,大家可以自行尝试。原创 2016-07-10 15:21:04 · 15279 阅读 · 0 评论 -
斯坦福cs224d(深度学习在自然语言处理上的应用)Lecture 2
这个课堂笔记我们将会对词向量(也就是词嵌入)的内部任务评价和外部任务评价方法进行讨论。主要的内容是单词类比(word analogies)技术,我们会把它当做内部任务评价的技术并展示其相关示例,它会在词向量的调谐(tune)中发挥重要作用。我们还会讨论如何训练模型的权重/参数,并关注用来进行外部任务评价的词向量。最后,我们会简单地介绍人工神经网络,它在自然语言处理中表现极好。原创 2016-06-12 19:33:42 · 17038 阅读 · 3 评论 -
深度学习与自然语言处理(4)_斯坦福cs224d 大作业测验1与解答
前面一个接一个的Lecture,看得老衲自己也是一脸懵逼,不过你以为你做一个安安静静的美男子(总感觉有勇气做deep learning的女生也是一条汉纸)就能在Stanford这样的学校顺利毕业啦?图样图森破,除掉极高的内容学习梯度,这种顶尖大学的作业和考试一样会让你突(tong)飞(bu)猛(yu)进(sheng)。原创 2016-06-27 00:44:09 · 25028 阅读 · 6 评论 -
斯坦福大学CS224d基础1:线性代数知识
本文为斯坦福CS229的内容,也是CS224d课程的背景数学知识。概括了在机器学习和深度学习中用到的大部分线性代数知识。为了便于大家查漏补缺,这里根据英文版本整理了一个中文版本。原创 2016-06-10 23:46:54 · 25609 阅读 · 3 评论 -
深度学习与自然语言处理(1)_斯坦福cs224d Lecture 1
本文为斯坦福大学CS224d课程的中文版内容笔记,已得到斯坦福大学课程@Richard Socher教授的授权翻译与发表原创 2016-06-02 16:13:14 · 34758 阅读 · 5 评论