- 博客(7)
- 收藏
- 关注
原创 书生·浦语训练营 笔记合集
(1)书生·浦语大模型全链路开源体系(2)轻松玩转书生·浦语大模型趣味Demo——笔记&作业(3)基于 InternLM 和 LangChain 搭建你的知识库——笔记&作业(4)XTuner 大模型单卡低成本微调实战(5)LMDeploy 大模型量化部署实践(6)OpenCompass 大模型评测
2024-01-30 10:07:55 199 1
转载 (4)XTuner 大模型单卡低成本微调实战
LLM的下游应用中,增量预训练和指令跟随是经常会用到两种的微调模式功能亮点母适配多种生态多种微调算法 多种微调策略与算法,覆盖各类SFT场景适配多种开源生态 支持加载HuggingFace、ModelScope模型或数据集自动优化加速 开发者无需关注复杂的显存优化与计算加速细节适配多种硬件训练方案覆盖NVIDIA20系以上所有显卡最低只需8GB显存即可微调7B模型。
2024-01-28 22:38:15 100
转载 (3)基于 InternLM 和 LangChain 搭建你的知识库——笔记&作业
LangChain框架是一个开源工具,通过为各种LLM提供通用接口来简化应用程序的开发流程,帮助开发者自由构建LLM应用。LangChain的核心组成模块链(Chains):将组件组合实现端到端应用,通过一个对象封装实现一系列LLM操作Eg.检索问答链,覆盖实现了**RAG(检索增强生成)**的全部流程。
2024-01-21 19:24:01 131
转载 (2)轻松玩转书生·浦语大模型趣味Demo——笔记&作业
什么是大模型?人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。特点及应用利用大量数据进行训练拥有数十亿甚至数千亿个参数模型在各种任务中展现出惊人的性能InternLM模型全链条开源InternLM是一个开源的轻量级训练框架,旨在支持大模型训练而无需大量的依赖。基于InternLM 训练框架,上海人工智能实验室已经发布了两个开源的预训练模型:InternLM-7B和InternLM-20B。
2024-01-21 18:23:00 63
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人