国内越来越多大模型公司发布技术报告,可喜可贺
给出链接,欢迎star~
在这里打个广告~ 欢迎加入书生·浦语大模型实战营~ 在实战营中你将收获:
-
下载Huggingface模型并在命令行、网页端运行!堪比本地的文心一言。
-
实现RAG,让大模型拥有知识库,试试把你的项目文档、pdf资料等给模型参考吧。
-
实现大模型参数高效微调,角色扮演、音乐生成、食谱编写……只有你想不到,没有你做不到!
-
实现量化部署模型,让3060能跑7B模型,让你的机器人能调用模型python接口获取回复。
-
智能体应用搭建,给予模型工具、计划、记忆……让其成为全能助手
-
跑通大模型评测,学习根据大模型排行榜单挑选适合业务的模型,并熟悉衡量模型好坏的维度指标。
-
熟悉常用微调数据格式,让平常收集“指令微调”数据与清洗不再困难!
随着ChatGPT和GPT-4掀起的大型语言模型(LLM)开发热潮,社区对于能够与这些巨头技术相匹敌的开源模型兴趣浓厚。一直以来,将这类先进的技术成果开源,让广大研究者和开发者共享前沿科技成果,既是挑战也是机遇。正当大家对此充满期待时,上海AI实验室、商汤集团联合多家顶尖大学研究团队,推出了引领未来的大型语言模型——InternLM2。
对于习惯了Python+PyTorch+HuggingFace等主流AI开发生态的用户来说,InternLM2的出现,无疑是雪中送炭。该团队不仅提供了一套全新的模型,还详细阐述了其背后的创新预训练和优化技术,包括针对文本、代码和长文本数据的高效处理方法,以及捕捉长期依赖关系的高级技巧,让广大研究者和开发者能够更容易地上手,甚至在此基础上进一步创新。
一月份的时候该模型已在GitHub等平台上发布,期待与全球开发者和研究人员共同推进语言模型技术的边界。
目前InternLM2在OpenCompass 2.0排行榜上位列同规模第一,综合实力非常强劲。其中Reasoning,Math,Code和Agent成绩甚至高于一些34B的模型,可以看出数理能力非常强劲。同时InternLM2能够高效地捕捉长期依赖关系,最初在预训练和微调阶段使用4k个tokens进行训练,然后扩展到32k个tokens,在200k长度的“大海捞针”测试中展现出卓越的性能。
Huggingface:internlm (InternLM)
Github: