Autoencoding neural models to extract word representations

Autoencoding neural models can be used to extract word representations, such as BERT and Autoencoding neural models can be used to extract word representations, such as BERT and VAE. 自动编码神经模型可以用来提取单词表示,如BERT和VAE。

For BERT, when randomly masking out a part of input X words, pre-training task is to predict those masked words based on the context words. 对于BERT,当随机屏蔽掉部分输入的X个单词时,预训练任务是根据上下文单词预测这些被屏蔽的单词。

For VAE, it can maps inputs into lower dimension space and then sample z from z ~ N(μ(h),σ(h)) and remaps z to x ̂. 对于VAE,它可以将输入映射到低维空间,然后从z~N(μ(h),σ(h))采样z,再将z映射到x̂。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
《Introduction to Graph Neural Networks》是一本介绍图神经网络的PDF。图神经网络是一类用于处理图结构数据的深度学习模型。该PDF主要介绍了图神经网络的基本概念、结构和应用。 首先,PDF简要介绍了图神经网络的起源和发展背景。它指出传统的神经网络模型无法有效地处理图结构数据中的关系和局部信息,而图神经网络的出现填补了这一空白。 接着,PDF详细解释了图神经网络的基本概念。它提到图神经网络通过将节点和边表示为向量,利用图卷积操作来更新节点的表示,从而融合了节点的邻居信息。同时,它还介绍了图神经网络在处理无向图、有向图和多图时的不同形式和应用。 然后,PDF分析了图神经网络的结构。它介绍了常见的图神经网络结构,如Graph Convolutional Networks (GCN)、GraphSAGE和Graph Attention Networks (GAT)等。对于每种结构,PDF详细解释了其原理和在实践中的应用。 最后,PDF总结了图神经网络的应用领域。它指出图神经网络在社交网络分析、化学分子表示、推荐系统和计算机视觉等领域有广泛的应用。并且,它还提供了一些成功案例和相关论文的引用。 综上所述,《Introduction to Graph Neural Networks》这本PDF全面而详细地介绍了图神经网络的基本概念、结构和应用。对于对图神经网络感兴趣的读者来说,这本PDF是一份很好的入门资料。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值