机器学习:自督导式学习模型

outline

在这里插入图片描述

自督导式模型有跨语言的能力

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • 中文:DRCD的数据集
  • 英文:SQuAD的数据集
    在104种语言上进行学习,并在英文上进行微调,结果在中文上效果也比较好。
    在这里插入图片描述
    XTREME Benchmark
    只用英文进行微调,在其他剩下的语言中进行测试。
    在这里插入图片描述
    bert可以无视语言的表象,只了解符合背后代表的语义。
    在这里插入图片描述
    看看英文对中文相近的分数算出来,然后取平均值得到MRR,该值越大越好。
    在这里插入图片描述
    在这里插入图片描述
    语言的信息藏在哪里呢?通过embedding展示,相近的词更接近
    在这里插入图片描述
    在这里插入图片描述
    英文转化成向量后,并对其进行偏移向量后,能够重构为中文。
    在这里插入图片描述
    在这里插入图片描述

可以在英文上测试,并在中文上进行测试。中英文上的embedding是有点差距的。

自督导式模型有跨领域的能力

在这里插入图片描述
在这里插入图片描述
把DNA的组成替换成字符型的表示形式进行学习
在这里插入图片描述
用bert有明显的提升。不仅学到了语义信息,也学到了一些通用的能力,在其他领域也能有较好的性能,
在这里插入图片描述
在DNA 蛋白质 音乐上都有所帮助。
在这里插入图片描述
pre-trained模型有强化模型的能力
在这里插入图片描述
跨语言学习的能力用在语音回答系统。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
终极状态:输入是语音,输出也是语音。
在这里插入图片描述
光用hubert是不行的,可以通过中间层后再加几层网络:

在这里插入图片描述
可以把Hubert的输出 丢给文字的预训练Bert
在这里插入图片描述
在这里插入图片描述

在人造的资料上训练Bert

在这里插入图片描述
在这里插入图片描述
通过规则生成一些tokens,并将tokens进行映射,之后再送到网络中进行学习。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

  • random产生的资料的效果不好
  • pair产生资料的效果还是非常明显的
  • shuffle产生的资料效果还是可以的
    在这里插入图片描述
    token的序列长度是非常重要的。
  • 9
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

uncle_ll

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值