基于LLaMA-2进行微调的FreeWilly2开源语言模型

FreeWilly2是Stability AI和CarperAI实验室发布的开源大语言模型,基于LLaMA 2 70B微调。它在多个基准测试中表现出色,包括GPT4ALL和AGI Eval。模型在Orca风格数据集上训练,以较低成本和碳足迹实现高效性能。用户应注意模型的使用限制和潜在偏见,适用于非商业研究。
摘要由CSDN通过智能技术生成

FreeWilly2是由Stability AI基于Llama2 70B所微调后发布的大语言模型,该模型的部分推理能力甚至已经超越openAIGPT-3.5。截止至发稿前,该模型在HuggingFace开源语言模型排行榜中位列榜首,大部分语言模型加载工具也正在处于积极适配中

看来开源语言模型终于要变天了,毕竟现在各种技术层出不穷,就像站长所说的,超越闭门造车不再open的oepnAI,只是时间问题。

模型描述

FreeWilly2是一个在Orca风格数据集上微调的Llama2 70B模型。Stability AI及其CarperAI实验室自豪地宣布FreeWilly1及其后继者FreeWilly2,这是两个强大的新型开放访问的大型语言模型(LLM)。这两个模型在各种基准测试中展现出了卓越的推理能力。FreeWilly1利用了原始的LLaMA 65B基础模型,并通过新的合成数据集使用标准Alpaca格式进行了精心微调。类似地,FreeWilly2利用了LLaMA 2 70B基础模型,其性能在某些任务上与GPT-3.5相比表现出色。

数据生成和收集

FreeWilly模型的训练直接受到了微软在其论文《Orca:从GPT-4的复杂解释跟踪中进行渐进学习》中开创的方法的启发。虽然我们的数据生成过程类似,但我们在数据来源上有所不同。

我们的数据集变种包含了60万个数据点(大约是原始Orca论文使用的数据集大小的10%),这些数据点是通过对以下由Enrico Shippole创建的高质量指令数据集进行语言模型提示而生成的:

  1. COT Submix原始数据集
  2. NIV2 Submix原始数据集
  3. FLAN 2021 Submix原始数据集
  4. T0 Submix原始数据集

通过这种方法,我们使用一个较简单的LLM模型生成了50万个示例,并使用一个更复杂的LLM模型生成了额外的10万个示例。为了确保公平比较,我们仔细筛选了这些数据集,并删除了来自评估基准的示例。尽管训练样本大小仅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

产品大道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值