Autoencoding neural models to extract word representations

Autoencoding neural models can be used to extract word representations, such as BERT and Autoencoding neural models can be used to extract word representations, such as BERT and VAE. 自动编码神经模型可以用来提取单词表示,如BERT和VAE。

For BERT, when randomly masking out a part of input X words, pre-training task is to predict those masked words based on the context words. 对于BERT,当随机屏蔽掉部分输入的X个单词时,预训练任务是根据上下文单词预测这些被屏蔽的单词。

For VAE, it can maps inputs into lower dimension space and then sample z from z ~ N(μ(h),σ(h)) and remaps z to x ̂. 对于VAE,它可以将输入映射到低维空间,然后从z~N(μ(h),σ(h))采样z,再将z映射到x̂。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值