跨语言
文章平均质量分 82
我是一个小透明
这个作者很懒,什么都没留下…
展开
-
Adversarial Deep Averaging Networks for Cross-Lingual Sentiment Classification
https://github.com/ccsasuke/adan作者提出了Adversarial Deep Averaging Network (ADAN)模型,将高资源的源语言标记数据迁移到低资源未标记数据。ADAN有两个不同的分支:一个sentiment classifier和一个adversarial language discriminator。这两个分支都将feature extractor学习的隐藏层表示作为输入,同时完成分类任务和跨语言不变任务。ADAN模型ADAN的核心假设就是,一原创 2021-03-13 13:18:44 · 459 阅读 · 0 评论 -
Cross-Lingual Unsupervised Sentiment Classification with Multi-View Transfer Learning
作者提出了一个multi-view encoder-classifier (MVEC)的情感分类模型,在无监督下只用两个语言的单语语料和源语言的标签。利用无监督机器翻译 (UMT)的encoder-decoder架构去约束和改善shared latent space。Methodology问题定义单语文本数据{Dsrc,Dsrc}\left\{D_{src},D_{src}\right\}{Dsrc,Dsrc} 和源语言子集{DsrcL,ysrcL}\left\{D^L_{src},y^L原创 2021-03-10 12:00:17 · 297 阅读 · 0 评论 -
Find or Classify? Dual Strategy for Slot-Value Predictions on Multi-Domain Dialog State Tracking
传统的dst分为两类:ontology-based和ontology-free。ontology-based在工业界可能无法把所有ontology预定义出来,即使所有的ontology存在,遍历所有值计算开销很大。ontology-free无法解决当值没有出现在对话内容中,或者用户有好几种表达这种情况作者提出了DualStrategy Dialog State Tracking model (DS-DST)利用阅读理解方法,寻找span,融合ontology-based(p..原创 2021-03-03 15:30:04 · 366 阅读 · 1 评论 -
Emerging Cross-lingual Structure in Pretrained Language Models
Emerging Cross-lingual Structure in Pretrained Language Models探究是什么让跨语言预训练模型有跨语言的能力 Dissecting mBERT/XLM models领域相似性 domain similarity锚点 shared vocabulary (or anchor points)锚点是在两个语言训练语料中共同出现的相同字符串(identical strings),作为跨语言共享编码器在不同语言中的纽带。用code-swi原创 2021-03-03 10:36:12 · 233 阅读 · 0 评论