总览:大模型技术的快速演进
自2023年7月6日“书生·浦语”(InternLM)在世界人工智能大会上正式开源以来,其在社区和业界的影响力日益扩大。在过去半年中,大模型技术体系经历了快速的演进,特别是100K级别的长上下文、代码解释、智能体等新技术的不断迭代。伴随技术水平的不断提升,大模型在应用边界的拓展也愈发显著。在这一背景下,上海人工智能实验室联合商汤科技、香港中文大学和复旦大学,共同推出了全新一代的语言模型——“书生·浦语2.0”(InternLM2)。
-
Huggingface模型下载:https://huggingface.co/internlm
-
AI快站模型免费加速下载:https://aifasthub.com/models/internlm
回归语言建模的本质
“书生·浦语2.0”(InternLM2)的核心理念在于回归语言建模的本质。团队通过提高语料质量和信息密度,旨在实现模型基座语言建模能力的质的提升。这一举措对于模型在各方面能力的提升至关重要,尤其是在数理、代码、对话和创作等方面。相比于第一代“书生·浦语”和其他主流开源模型,InternLM2在这些方面的综合性能已达到领先水平。