- 博客(4)
- 收藏
- 关注
原创 pytorch中nn.Embedding和nn.LSTM和nn.Linear
CLASS torch.nn.Embedding(num_embeddings: int, embedding_dim: int, padding_idx: Optional[int] = None, max_norm: Optional[float] = None, norm_type: float = 2.0, scale_grad_by_freq: bool = False, sparse: bool = False, _weight: Optional[.
2021-02-22 15:07:58 4468
转载 什么是word representation
原文链接:https://www.jianshu.com/p/875a3b8424b2编码任何信息在计算机内的存储方式都是数字,更加具体的说是0-1的二进制码。为了能够让生活中的语言能够存储于计算机中,我们会给所有的字符(包括字母字符,汉子等所有的其他语言文字)一个编码方式,比如小写字母a在计算机中编码的十进制是97,大写字母A的编码是65。只要每个字符的编码能够区别于其他的字符就行。当然...
2019-01-24 17:59:59 1622
转载 什么是word embedding
Embedding在数学上表示一个映射(maping), f: X -> Y, 也就是一个函数(function),其中该函数是injective(就是我们所说的单射函数,每个Y只有唯一的X对应,反之亦然)和structure-preserving (结构保存,比如在X所属的空间上X1 < X2,那么映射后在Y所属空间上同理 Y1 < Y2)。那么对于word embedd...
2019-01-24 17:57:36 653
原创 numpy中ndarray的比较
import numpy as npa = np.array([1, 2, 3, 4, 5])b = np.array([1, 2, 3, 4, 5])c = a# use 'is' to compareprint("a compares with b: ", a is b)print("a compares with c: ", a is c)# use '==' to c...
2018-07-25 19:10:31 8889
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人