自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

原创 NLP之词嵌入(Embedding)概述

单词不能直接输入机器学习模型,而需要某种数值表示形式,以便模型能够在计算中使用。通过Word2Vec,我们可以使用一个向量(一组数字)来恰当地表示单词,并捕捉单词的语义以及单词和单词之间的关系(例如,判断单词是否相似或者相反,或者像 "Stockholm" 和 "Sweden" 这样的一对词,与 "Cairo" 和 "Egypt"这一对词,是否有同样的关系)以及句法、语法关系(例如,"had" 和 "has" 之间的关系与 "was" 和 "is" 之间的关系相同)。...

2021-09-20 05:25:04 254

转载 NLP之Bert详解

感谢DataWhale的学习机会,这里做总结参考,原文见:基于transformers的自然语言处理(NLP)入门https://datawhalechina.github.io/learn-nlp-with-transformers/#/./%E7%AF%87%E7%AB%A02-Transformer%E7%9B%B8%E5%85%B3%E5%8E%9F%E7%90%86/2.3-%E5%9B%BE%E8%A7%A3BERT在学习完Transformer之后,我们来学习一下将Transformer模

2021-09-20 04:22:40 1352

原创 Transformer模型结构详解

1、模型架构大部分序列到序列(seq2seq)模型都使用编码器-解码器结构(引用)。编码器把一个输入序列(????1,...????????)(x1,...xn)映射到一个连续的表示????=(????1,...????????)z=(z1,...zn)中。解码器对z中的每个元素,生成输出序列(????1,...????????)(y1,...ym)。解码器一个时间步生成一个输出。在每一步中,模型都是自回归的(引用),在生成下一个结果时,会将先前生成的结果加入输入序列来一起预测。2、结构细节

2021-09-16 05:31:10 508

转载 Transformer原理重点梳理(转载)

目前在跟着DataWhale学习Transformer,自己归纳了一些比较重要的点(因为是小白,所以归纳会不准,更多作总结参考性质)。原链接:基于transformers的自然语言处理(NLP)入门https://datawhalechina.github.io/learn-nlp-with-transformers/#/./%E7%AF%87%E7%AB%A02-Transformer%E7%9B%B8%E5%85%B3%E5%8E%9F%E7%90%86/2.0-%E5%89%8D%E8%A8%80

2021-09-16 01:33:28 1851

转载 NLP入门学习day1-Python virtual environment虚拟环境搭建

1. Create Virtual Python Environment查看环境conda info --e创建环境:conda create -n 环境名称 python=版本conda create -n env_name python=3.7激活环境:conda activate 环境名称conda activate env_name————————————————版权声明:本文为CSDN博主「Rani_zZ」的原创文章,遵循CC 4.0 BY-SA版权协议,转载

2021-09-13 23:12:32 357

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除