
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」,本期 Hugging News 有哪些有趣的消息,快来看看吧!
🚀HACKATHON🚀 造个 🤖️ 去瀛海威广场聚会啦!
百姓 AI 和 Hugging Face 联合推出,就在下周末。大伙儿造/燥起来呀
使用 DeepSpeed 和 HuggingFace Transformers 对 FLAN-T5 XL/XXL 进行微调
《Scaling Instruction-Finetuned Language Models》论文中发布的 FLAN-T5 是 T5 的增强版本,它已经在多种任务中进行了微调。相同参数数量下,FLAN-T5 的表现比 T5 提高了两位数。Google 已经在 Hugging Face 上开源了 5 个版本,参数范围从 80M 到 11B 不等。本文介绍了如何使用 Transformers 对其进行微调。
https://www.philschmid.de/fine-tune-flan-t5-deepspeed