LLM-2023:Falcon模型【阿联酋】

Falcon是由阿联酋Technology innovation institute推出的大型语言模型,最大规模为40B参数,经过精细的数据清洗和去重,使用1万亿token在AWS上训练。该模型在Bloom架构基础上采用FlashAttention和multiquery技术,提供快速推理。尽管Falcon在开源模型中表现出色,但在与GPT-3.5的对比中仍存在差距,但其在指令微调后的某些测试中表现下降,表明仍有改进空间。
摘要由CSDN通过智能技术生成

Falcon 重要信息速读

  1. 本模型是阿联酋Technology innovation institute 推出的,最大的是40B,在AWS上384个GPU上,使用了1万亿的token训练了两个月,具体型号没说,考虑到中东富豪的咖位,那估计是最贵的没跑了。
  2. 然后中东富豪们也不打算用大模型赚钱,这个模型直接可以免费商用!这对比Llama无法直接商用简直是各大公司的福音。
  3. 模型的训练性能也还不错,说是之用了CPT3的75%的成本。
     

  1. 做了大量的数据清洗和去重工作,从下图可以看出,洗到最后,只剩下原始数据的11%,大概5万亿个token。这5万亿个token按照之前的研究结论,可以支持训练一个250B的模型是没有问题的。我猜很快就会有人跟进训练一个250B的模型,以期望超越GPT-3.5,这是一个巨大的商业机会。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值