NLP
文章平均质量分 71
Avada__Kedavra
这个作者很懒,什么都没留下…
展开
-
cs 224n(3)
本讲主要简述以下几个方面:#1. 复习:word2vec的主要思路#提高训练效率的方法: 负采样在计算损失函数时,对的求和计算量是非常大的,因此需要找到更加高效的训练方法——负采样,negative sampling。............原创 2022-06-14 17:52:35 · 112 阅读 · 0 评论 -
基于Hierarchical Softmax的模型
红色 绿色 [Word2Vec] Efficient Estimation of Word Representations in Vector Space (Google 2013)Google的Tomas Mikolov提出word2vec的两篇文章之一,这篇文章更具有综述性质,列举了NNLM、RNNLM等诸多词向量模型,但最重要的还是提出了CBOW和Skip-gram两种word2vec的模型结构。虽然词向量的研究早已有之,但不得不说还是Google的word2vec的提出让词向量重归主流.原创 2020-12-01 15:55:33 · 250 阅读 · 0 评论 -
word2vec(1) Huffman编码
在介绍Huffman编码前,先介绍下Huffman树。1. Huffman树树是一种重要的非线性数据结构,它是数据元素(树中称为节点)按分支关系组织起来的结构,若干棵互不相交的树所构成的集合称为森林,树中有几个重要的概念,在这里做一下简单的介绍:路径和路径长度:在一棵树中,从一个结点往下可以达到的孩子或孙子节点之间的通路,称为路径。通路中的分支的数目称为路径长度,若规定根结点的层号是1,则从根结点到第L层结点的路径长度为L-1。结点的权和带权路径长度:若为树中的结点赋予了一个具有某种含义的数原创 2021-06-28 11:03:21 · 450 阅读 · 1 评论 -
CS224n NLP with Deep Learning(2)词向量表示 word2vec
引言课程笔记:笔记pdfyoutube观看链接:youtube列表bilibili观看链接:斯坦福CS224n本讲主要简述以下7个方面:Word meaningWord2vec introductionResearch highlight:前沿研究Word2vec objective function gradients:目标函数的梯度Optimization refresherAssignment 1 notesUsefulness of word2vec1. 如何表示一个词语原创 2020-12-01 23:42:35 · 249 阅读 · 0 评论 -
基于Negative Sampling的模型
1.原创 2020-11-11 21:03:47 · 304 阅读 · 0 评论 -
nlp 4 拾遗
1.深度学习 | 三个概念:Epoch, Batch, Iteration2.原创 2020-03-30 23:38:10 · 113 阅读 · 0 评论 -
word2vec(2) 背景知识
悬而未决1. word2vec 是怎样实现的?2.0. 前言Huffman树树是一种重要的非线性数据结构,它是数据元素(树中称为节点)按分支关系组织起来的结构,若干棵互不相交的树所构成的集合称为森林,树中有几个重要的概念,在这里做一下简单的介绍:路径和路径长度:在一棵树中,从一个结点往下可以达到的孩子或孙子节点之间的通路,称为路径,通路中的分支的数目称为路径长度,若规定......原创 2019-09-19 16:59:07 · 569 阅读 · 0 评论 -
CS224n NLP with Deep Learning(3)
引言课程笔记:笔记pdfyoutube观看链接:youtube列表bilibili观看链接:斯坦福CS224n原创 2020-10-12 23:40:53 · 147 阅读 · 0 评论 -
CS224n NLP with Deep Learning(1):Introduction NLP与深度学习入门
引言课程笔记:笔记pdfyoutube观看链接:youtube列表bilibili观看链接:斯坦福CS224n本讲主要包括四个方面:什么是自然语言处理? 什么是深度学习? 为什么language理解起来困难? 关于NLP的深度学习1. 什么是自然语言处理?自然语言处理(Natural Language Processing)是计算机科学(Computer Scien...原创 2019-11-21 21:22:55 · 286 阅读 · 0 评论