- 博客(5)
- 收藏
- 关注
原创 NLP之词嵌入(Embedding)概述
单词不能直接输入机器学习模型,而需要某种数值表示形式,以便模型能够在计算中使用。通过Word2Vec,我们可以使用一个向量(一组数字)来恰当地表示单词,并捕捉单词的语义以及单词和单词之间的关系(例如,判断单词是否相似或者相反,或者像 "Stockholm" 和 "Sweden" 这样的一对词,与 "Cairo" 和 "Egypt"这一对词,是否有同样的关系)以及句法、语法关系(例如,"had" 和 "has" 之间的关系与 "was" 和 "is" 之间的关系相同)。...
2021-09-20 05:25:04
254
转载 NLP之Bert详解
感谢DataWhale的学习机会,这里做总结参考,原文见:基于transformers的自然语言处理(NLP)入门https://datawhalechina.github.io/learn-nlp-with-transformers/#/./%E7%AF%87%E7%AB%A02-Transformer%E7%9B%B8%E5%85%B3%E5%8E%9F%E7%90%86/2.3-%E5%9B%BE%E8%A7%A3BERT在学习完Transformer之后,我们来学习一下将Transformer模
2021-09-20 04:22:40
1352
原创 Transformer模型结构详解
1、模型架构大部分序列到序列(seq2seq)模型都使用编码器-解码器结构(引用)。编码器把一个输入序列(????1,...????????)(x1,...xn)映射到一个连续的表示????=(????1,...????????)z=(z1,...zn)中。解码器对z中的每个元素,生成输出序列(????1,...????????)(y1,...ym)。解码器一个时间步生成一个输出。在每一步中,模型都是自回归的(引用),在生成下一个结果时,会将先前生成的结果加入输入序列来一起预测。2、结构细节
2021-09-16 05:31:10
508
转载 Transformer原理重点梳理(转载)
目前在跟着DataWhale学习Transformer,自己归纳了一些比较重要的点(因为是小白,所以归纳会不准,更多作总结参考性质)。原链接:基于transformers的自然语言处理(NLP)入门https://datawhalechina.github.io/learn-nlp-with-transformers/#/./%E7%AF%87%E7%AB%A02-Transformer%E7%9B%B8%E5%85%B3%E5%8E%9F%E7%90%86/2.0-%E5%89%8D%E8%A8%80
2021-09-16 01:33:28
1851
转载 NLP入门学习day1-Python virtual environment虚拟环境搭建
1. Create Virtual Python Environment查看环境conda info --e创建环境:conda create -n 环境名称 python=版本conda create -n env_name python=3.7激活环境:conda activate 环境名称conda activate env_name————————————————版权声明:本文为CSDN博主「Rani_zZ」的原创文章,遵循CC 4.0 BY-SA版权协议,转载
2021-09-13 23:12:32
357
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人