![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
书生浦语
文章平均质量分 78
花生david
这个作者很懒,什么都没留下…
展开
-
书生·浦语大模型实战营学习总结
书生浦语大模型春节实战营课程内容个人笔记&作业汇总。原创 2024-02-17 16:01:53 · 1001 阅读 · 0 评论 -
ch6-homework-OpenCompass大模型评测
ch6-homework-OpenCompass大模型评测原创 2024-02-17 11:15:33 · 1028 阅读 · 1 评论 -
ch6-OpenCompass大模型评测
随着人工智能技术的快速发展, 大规模预训练自然语言模型成为了研究热点和关注焦点。OpenAI于2018年提出了第一代GPT模型,开辟了自然语言模型生成式预训练的路线。沿着这条路线,随后又陆续发布了GPT-2和GPT-3模型。与此同时,谷歌也探索了不同的大规模预训练模型方案,例如如T5, Flan等。OpenAI在2022年11月发布ChatGPT,展示了强大的问答能力,逻辑推理能力和内容创作能力,将模型提升到了实用水平,改变人们对大模型能力的认知。原创 2024-02-15 17:13:09 · 922 阅读 · 1 评论 -
ch5-homework-基于LMDeploy的大模型量化部署实践
ch5-homework-基于LMDeploy的大模型量化部署实践原创 2024-02-15 16:09:47 · 874 阅读 · 1 评论 -
ch5-LMDeploy大模型量化部署实践
ch5-LMDeploy大模型量化部署实践原创 2024-02-14 19:41:23 · 398 阅读 · 1 评论 -
ch4-homework-基于Xtuner的大模型单卡低成本微调作业
基本思路:整个微调流程跟上面其实是一样的,只是训练的数据集需要自己搞定一下,这个参考一下教程的自定义数据集微调部分或者案例https://github.com/InternLM/tutorial/blob/main/xtuner/self.md所提到的即可,生成相应的。构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手,效果如下图所示,本作业训练出来的模型的输出需要。运行之后,同样会先加载模型,需要几分钟时间,后面就可以愉快的开始对话了~原创 2024-02-14 17:17:42 · 875 阅读 · 1 评论 -
ch4-XTuner大模型单卡低成本微调实战
ch4-XTuner大模型单卡低成本微调实战原创 2024-02-14 08:53:28 · 337 阅读 · 1 评论 -
ch3-homework-基于InternLM和LangChain搭建自己的知识库
ch3-homework-基于InternLM和LangChain搭建自己的知识库原创 2024-02-13 16:08:20 · 786 阅读 · 1 评论 -
ch3-基于InternLM大模型和LangChain搭建自己的知识库
基于InternLM大模型和LangChain搭建自己的知识库原创 2024-02-13 15:42:26 · 406 阅读 · 1 评论 -
ch2-homework-轻松玩转书生浦语大模型demo实践
ch2-homework-demo实践原创 2024-02-13 11:09:30 · 428 阅读 · 1 评论 -
ch2-轻松玩转书生浦语大模型趣味Demo
ch2-轻松玩转书生浦语大模型趣味Demo原创 2024-02-13 10:43:40 · 363 阅读 · 1 评论 -
ch1-书生浦语大模型全链路开源体系介绍
ch1-书生浦语大模型全链路开源体系介绍。原创 2024-02-12 13:02:09 · 414 阅读 · 1 评论