开源大模型 | Open LLM集中爆发,卷疯了!

开源大模型领域热闹非凡,各种开源,PaperAgent进行了概括:端侧、Code、RAG、Agent、Reflection(反思纠正)、MoE,你关注的都在这里了。

一、Reflection Llama-3.1-70B 开源

Reflection Llama-3.1 70B是世界上顶尖的Open LLM,通过反思微调技术(Reflection-Tuning)训练,能够检测并纠正推理错误,具有很高的热度,Hugging Face热门排行Top1。

Agent中需要LLM具有很强的推理规划能力,这种反思技术训练的模型是否很契合Agent尼?有待进一步验证

  1. 该模型使用Glaive生成的合成数据进行训练,Glaive是一个强大的模型训练工具。

  2. 模型可以通过特定的代码和管道进行采样,使用与标准Llama3.1相同的聊天模板格式。

  3. 采样时,模型会先在标签内输出推理过程,然后使用标签修正错误,最后在标签内提供最终答案。

  4. 这种设计使得模型能够区分内部思考和最终答案,提升用户体验。

从实验对结果看,是击败GPT-4o、Claude 3.5 Sonnet,遥遥领先的,更强405B版本

https://hf-mirror.com/mattshumer/Reflection-Llama-3.1-70B

二、面壁小钢炮MiniCPM 3.0开源

面壁智能开源新一代全面开挂的小钢炮,4B规模达到ChatGPT级能力:

  • 长文本方向:无限长文本,榜单性能超Kimi,超长文本也不崩。
  • Function Calling方向:性能比肩GPT-4o ,端侧最强,超越 GLM-4-9B-Chat、Qwen2-7B-Instruct。
  • RAG 方向:超强 RAG 外挂三件套,基于 MiniCPM 系列模型的 MiniCPM-Embedding、MiniCPM-Reranker 在中文、中英跨语言检索测试中取得 SOTA 表现;针对 RAG 场景的 MiniCPM3-RAG-LoRA 在开放域问答等多项任务上超越 Llama3-8B、Baichuan2-13B 等模型。

https://github.com/OpenBMB/MiniCPM``https://huggingface.co/openbmb/MiniCPM3-4B

三、零一万物Yi-Coder系列模型开源

Yi-Coder 有两种规模——15亿和90亿参数——提供基础版和聊天版,旨在实现高效的推理和灵活的训练。值得注意的是,Yi-Coder-9B 在 Yi-9B 的基础上,额外增加了2.4万亿高质量的标记,这些标记精心挑选自 GitHub 上的代码库级别的代码语料库,以及从 CommonCrawl 筛选出的与代码相关的数据。

Yi-Coder 的关键特性包括:

  • 在52种主要编程语言上的2.4万亿高质量标记上继续预训练。
  • 长上下文建模:最大上下文窗口为128K标记,能够实现项目级别的代码理解和生成。
  • 小巧但强大:Yi-Coder-9B 在性能上超越了其他参数少于100亿的模型,如 CodeQwen1.5 7B 和 CodeGeex4 9B,甚至达到了与 DeepSeek-Coder 33B 相当的性能水平。
https://hf-mirror.com/01-ai/Yi-Coder-9B-Chat
https://hf-mirror.com/01-ai/Yi-Coder-1.5B-Chat
https://01-ai.github.io/blog.html?post=en/2024-09-05-A-Small-but-Mighty-LLM-for-Code.md

四、DeepSeek-V2.5版本发布

DeepSeek-V2.5 是一个升级版本,它结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。这个新模型整合了前两个版本的通用和编码能力。

DeepSeek-V2.5 更好地符合人类的偏好,并在多个方面进行了优化,包括写作和指令遵循:

https://hf-mirror.com/deepseek-ai/DeepSeek-V2.5

五、首个完全开源MoE大模型:OLMoE

OLMoE-1B-7B 是一个具有10亿活跃参数和70亿总参数的专家混合(Mixture-of-Experts)大型语言模型(LLM),于2024年9月(0924)发布。它在成本相似(10亿)的模型中提供了最先进的性能,并且与像 Llama2-13B 这样的更大模型具有竞争力。OLMoE 是100%开源的

开放 MoE 和密集型语言模型(LMs)的性能、成本和开放程度

checkpoints: https://huggingface.co/allenai/OLMoE-1B-7B-0924
paper: https://arxiv.org/pdf/2409.02060
code:https://github.com/allenai/OLMoE
data:https://huggingface.co/datasets/allenai/OLMoE-mix-0924
logs:https://wandb.ai/ai2-llm/olmoe/reports/OLMoE-1B-7B-0924--Vmlldzo4OTcyMjU3

最后分享

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享!

在这里插入图片描述

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。
在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

5. 大模型面试题

面试,不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

在这里插入图片描述

如有侵权,请联系删除。

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值