UER(腾讯)

UER(Universal Encoder Representations)是一个开放源代码的预训练模型工具包,旨在解决预训练模型选择困难的问题。它包含多个低耦合模块,允许用户方便地调用或定制预训练模型,提供在不同任务上表现良好的模型集合。UER的出现简化了自然语言处理中预训练模型的使用,促进了迁移学习在NLP领域的应用。
摘要由CSDN通过智能技术生成

现存的预训练模型中没有一种可以完美的适用于所有任务,这也给预训练模型的选择带来困难。对于这个问题,论文提供了一种切实可行的解决方案,即UER(Universal Encoder Representations)。

论文标题:UER: An Open-Source Toolkit for Pre-training Models;

论文地址: https://arxiv.org/abs/1909.05658

自然语言处理(NaturalLanguage Processing, NLP)主要研究如何让计算机读懂人类的自然语言,该技术是人工智能非常重要的研究领域之一,也是人工智能最难解决的问题之一。幸运的是,得益于迁移学习技术的发展,自然语言处理在近些年也取得了快速的发展,并广泛应用于机器翻译、信息检索等领域。

何为迁移学习?在自然语言处理的背景下,迁移学习本质上是在一个源领域(Source Domain)数据集上预训练模型,然后对该模型进行

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值