Falcon 重要信息速读
- 本模型是阿联酋Technology innovation institute 推出的,最大的是40B,在AWS上384个GPU上,使用了1万亿的token训练了两个月,具体型号没说,考虑到中东富豪的咖位,那估计是最贵的没跑了。
- 然后中东富豪们也不打算用大模型赚钱,这个模型直接可以免费商用!这对比Llama无法直接商用简直是各大公司的福音。
- 模型的训练性能也还不错,说是之用了CPT3的75%的成本。

- 做了大量的数据清洗和去重工作,从下图可以看出,洗到最后,只剩下原始数据的11%,大概5万亿个token。这5万亿个token按照之前的研究结论,可以支持训练一个250B的模型是没有问题的。我猜很快就会有人跟进训练一个250B的模型,以期望超越GPT-3.5,这是一个巨大的商业机会。
Falcon是由阿联酋Technology innovation institute推出的大型语言模型,最大规模为40B参数,经过精细的数据清洗和去重,使用1万亿token在AWS上训练。该模型在Bloom架构基础上采用FlashAttention和multiquery技术,提供快速推理。尽管Falcon在开源模型中表现出色,但在与GPT-3.5的对比中仍存在差距,但其在指令微调后的某些测试中表现下降,表明仍有改进空间。
订阅专栏 解锁全文
1120

被折叠的 条评论
为什么被折叠?



