任务类型 | 任务内容 | 预计耗时 | 完成度 |
---|---|---|---|
闯关任务 | P写一篇关于书生大模型全链路开源开放体系的笔记 | 45mins | 完成 |
十分能打的新LLM:internLM 2.5
- 让我们来学习一下Internlm开源开放体系
- 经过一周年的开发迭代与开放开源,目前已经到了2.5版本
- 从与别的开源LLM横向对比和与InterLM2.0纵向对比可得.新版本InterLM性能抢尽在多个数据集获得了巨大进步,某些方面已经"遥遥领先"
- 2.5主要在如下三个方面优点突出
- 关于100W token(也就是1Mtoken.要知道gpt4o也才128k token.此时百度文心一言3.5和4也最多支持到128K)
- 实现这些主要是数据驱动!
- 其中:给予反馈的数据生成,真的是"有多少人工有多少智能"
- 这里直接给intenLM一本pdf看,他便可以总结.不必进行RAG.(我不禁要问,超大token的LLM会不会视RAG为鸡肋?)(须知,在某些场景下,LLM对比RAG的机械编码和语言向量编码有着巨大的降维打击!)
新的AI搜索助手:Mind Search
- 这是AI搜索助手的运行Flow
- 这是mindsearchUI(其实bing,baidu很早有智能检索,后期google的gemini也更上来,国内kimi也有此功能.但是其本质是搜索引擎大于AI.而最新的chatgpt给出的解决方案比较贵,很商业化.此时开源可本地部署的mind search就给了普通用户一个无法拒绝的方案)
internLM大家族
开源且全面:工具链全链条
- InternEvo是什么,没用过