活动报名|无Token适应,自回归地在字节序列上进行训练,热门工作

e970b88e625053a723c5af88e47f1498.png

报告主题:MambaByte:无Token适应,自回归地在字节序列上进行训练

报告日期:4月19日(周五)10:30-11:30

主题简介

无Token的语言模型直接从原始字节学习,并消除了子词Tokenization的归纳偏见。然而,基于字节的操作导致序列长度显著增加。在这种情况下,标准的自回归Transformers的扩展性不佳,因为所需的有效内存随着序列长度的增加而增长。最近开发的Mamba state space model(SSM)提供了一个吸引人的替代方法,具有固定大小的内存状态和高效的解码能力。我们提出了MambaByte,这是对Mamba SSM的无Token适应,自回归地在字节序列上进行训练。

在建模方面,我们展示了MambaByte在语言建模任务上不仅能与最先进的子词Transformers竞争,甚至能超越它们,同时保持无Token语言模型的优势,例如对噪声的鲁棒性。在效率方面,我们开发了一种基于推测性解码的适应方法,结合了Tokenized drafting和字节级验证。这导致标准MambaByte实现的推断速度提高了2.6倍,显示出与子词Mamba类似的解码效率。这些发现证明了SSM在实现无Token语言建模方面的可行性。Talk也会讲一部分之前在bidirectional linear state的工作。

报告嘉宾

王俊雄,康奈尔大学计算机学院博士生,主要研究长序列建模和线性复杂度模型,和线性复杂度的循环神经网络(RNN)模型。长序列建模是指处理和分析在时间或空间上具有较长依赖关系的数据序列的技术,保证模型在处理每个序列元素时的计算和内存使用与序列长度成线性关系,从而在处理长序列数据时能够保持高效的性能。在自然语言处理、音频信号处理和基因序列分析等领域尤为重要。

扫描下方二维码

462e5d2473e65025fa2eed3b9c6e8509.png

或点击「阅读原文」报名

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值