书生·浦语模型大模型实战营第一期
文章平均质量分 94
专栏提供了详细的InterLM模型的使用教程,包括代码、笔记,学完即可自主使用InterLM系列产品
VertexGeek
这个作者很懒,什么都没留下…
展开
-
书生·浦语:大模型全链路开源体系(六)——测评
基座模型:一般是经过海量的文本数据以自监督学习的方式进行训练获得的模型(如OpenAI的GPT-3,Meta的LLaMA),往往具有强大的文字续写能力。对话模型:一般是在的基座模型的基础上,经过指令微调或人类偏好对齐获得的模型(如OpenAI的ChatGPT、上海人工智能实验室的书生·浦语),能理解人类指令,具有较强的对话能力。模型层:大模型评测所涉及的主要模型种类,OpenCompass以基座模型和对话模型作为重点评测对象。能力层。原创 2024-01-21 19:25:11 · 1148 阅读 · 1 评论 -
书生·浦语:大模型全链路开源体系(五)——推理部署
大模型的推理速度将严重影响,用户的体验感和使用效率,各个大厂都在尽可能的提升模型的推理输出速度,常见的方法有量化、蒸馏和剪枝等。本篇文章将重点介绍上海人工智能实验室推出的LMDeploy部署架构,提高模型的推理速度。原创 2024-01-15 10:54:35 · 1292 阅读 · 0 评论 -
书生·浦语大模型全链路开源体系(四)——微调(XTuner)
{},}]通过 python脚本:将数据集中的 “问题” 和 “回答 ”两列 提取出来,再放入.jsonL文件的每个 conversation 的 input 和 output 中,这一步的 python 脚本可以请 ChatGPT 来完成。[{},}]# 修改import部分,其实这一句改不改都行# 修改模型为本地路径# 修改训练数据为 MedQA2019-structured-train.jsonl 路径# 修改 train_dataset 对象。原创 2024-01-12 11:52:39 · 1196 阅读 · 5 评论 -
书生·浦语:大模型全链路开源体系(三)——RAG
自chatgpt一夜爆火以来,LLM模型,展现出了惊人的发展能力和未来潜力,在人们的人常生活的方方面面发挥着,越来越重要的作用,大学生用它生成论文的草稿、企业在大模型的基础上制作新一代的智能客服,工程师们甚至用它提高芯片设计和开发的效率。为解决幻觉和知识更新的问题,提出了检索增强生成(RAG)方法。所谓RAG就相当于是给模型增加一个外部的知识库,模型遇到专业性强,以及在其训练范围之外的知识时,就可以直接从知识库中寻找,这就极大的缓解了幻觉和知识更新的问题。),运行web_demo.py文件即可。原创 2024-01-10 15:13:18 · 1410 阅读 · 0 评论 -
书生·浦语:大模型全链路开源体系(二)——InternLM、Lagent、浦语·灵笔Demo调用
pip、conda换源:设置pip默认源,避免每次下载依赖包都要加上一长串的国内源conda换源:镜像站提供了 Anaconda 仓库与第三方源(conda-forge、msys2、pytorch 等),各系统都可以通过修改用户目录下的.condarc文件来使用镜像站。不同系统下的.condarcLinuxWindows.condarc更多详细内容可移步至查看。原创 2024-01-06 23:34:53 · 1477 阅读 · 0 评论 -
书生·浦语:大模型全链路开源体系(一)
2022年10月,OpenAI上线了聊天工具chatgpt,迅速在全球走红,2023年4月又发布了迄今为止最前的AI模型GPT4,大模型,AIGC等词迅速成为2023年最火的科技热词之一。与AI2.0时代的工具不同,此次,大模型不单单是在规模上,突出大的特点,更是展现出举世瞩目的能力和潜力,在文本生成,代码迭代,文字生图等领域均展现了非凡的潜力,对人们的学习、工作和生活都产生了深远的影响。原创 2024-01-04 10:43:21 · 964 阅读 · 0 评论