![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
文章平均质量分 89
MapleTx
这个作者很懒,什么都没留下…
展开
-
莫烦NLP学习笔记--04注意力
要解决的问题计算机如果听到一个长句直接回答,可能会有“失忆”或者“找不到重点”的问题如何注意情感分析简单例子,线条越粗的部分模型注意力越集中翻译简单例子,原创 2020-10-15 10:19:42 · 185 阅读 · 0 评论 -
莫烦NLP学习笔记--03理解句子
Seq2Seq生成模型Encoder和DecoderEncoder化繁为简,将句子转成标准的向量表达,提取最有用的特征;Decoder将向量化表达转变成其他的表达形式,将压缩好的信息解压成另外一种形式翻译翻译可称作seq2seq,将一个 sequence 转换成另一个 sequence,即用Encoder压缩并提炼第一个sequence的信息,然后用Decoder将这个信息转换成另一种语言。优化避免前期捡了芝麻后期丢了西瓜,如果使用 beam search, 我们不仅仅关注当前最优策略原创 2020-10-14 16:37:41 · 196 阅读 · 0 评论 -
莫烦NLP学习笔记--02理解词语
词向量如上一篇博客所述,文章可用TF-IDF算法表示为向量,相应的,词语也可以表示为特定的多维向量,即词向量。只要是词语在一个方向上,我们就认为他们是相近的,这时我们就能用cosine 相似度来测量两个向量的夹角大小。越有区分力的词可能越远离中心地带,因为他们和其他词都不像,而越通用,在每种场景都有的词,就可能越靠近原点。这时,点与点的距离就能告诉我们词的频率性特征。理解:只要两个词总在一起出现,他们之间的关联性应该越强,距离应该也越近。我们想一想,如果一个词不仅出现的频率高,而且任何句子中都原创 2020-10-14 15:05:03 · 193 阅读 · 0 评论 -
莫烦NLP学习笔记--01搜索
搜索引擎如何工作构建索引搜索引擎不会储存一篇文章的所有信息,而是挑选重点比如标题、时间、正文等信息给予不同权重存储起来。搜索引擎在搜索的时候,不会临时从全网找材料,而是将刚刚收集到的信息提前构建成索引,存储在便于快速检索的数据库中。只在自己的数据库中搜索,使及时搜索更有效率。数值匹配搜索文字和图片视频等信息都可以被深度学习网络转换为统一的数字形态,对比相似性就可以实现多模态搜索。搜索过滤由于深度学习速度较慢,先使用更传统的方法过滤,在后续步骤中再使用深度学习。正排/倒排索引—批量召回技术原创 2020-10-12 20:48:49 · 214 阅读 · 0 评论