词向量、预训练词向量、Word2Vec、Word Embedding概述

本文介绍了词向量、预训练词向量、Word Embedding和Word2Vec的概念与区别。词向量将自然语言转化为计算机可理解的形式,包括One-Hot和Distributed representation两种表示方法。预训练词向量在数据量不足时提供先验知识,提高模型性能。Word Embedding是词映射到向量空间的过程,包括Frequency based和Prediction based两种方式。Word2Vec是一种Distributed Representation,通过CBOW和Skip-gram模型学习词的上下文语义。
摘要由CSDN通过智能技术生成

最近在做序列标注项目的时候涉及到了Word Embedding和预训练词向量,发现对这三者的概念不清晰,以前实习用到的Word2Vec也忘的差不多了,故在这里简述三者之间的区别和联系,若有不正确之处还望大家不吝赐教,谢谢!

一、词向量

(一) 概述

  1. 词向量:以一定长度的向量形式表示一个字/词。
  2. 使用词向量的原因:将自然语言(Natural Language)转换为计算机可以识别的数字化形式,从而进行机器学习等高阶任务。

(二)表示方法

1. One-Hot

俗称“独热编码”,用0/1的方式表征词语,用于将自然语言转换为计算机可以理解的向量形式的一种转换方法。这种编码方式能够唯一地表示每一个字/词,这个one-hot向量的维度是所有不重复出现的字/词的字典,当前字/词只在某一个维度上向量表示为1,其余维度都为0,例如:

["中国", "美国", "日本", "美国"]--->[[1,0,0], [0,1,
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值