自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 书生浦语大模型实战营第二期第四次课

傻瓜式,上手难度低轻量级,对于7B参数量的LLM,微调需要的最小显存仅为8GBXTuner训练速度在不同的量级的模型上训练速度都显著高于LLaMa-Factory在不同参数长度下,无论是兼容性、性能优化、显存优化等方面XTuner都更具优势。

2024-05-12 11:29:11 498

原创 书生浦语大模型第二期第三次作业

中创建自己领域的知识问答助手。

2024-04-15 01:11:09 263 1

原创 书生浦语大模型实战营第二期第三次课

此外,该模型具有很强的扩展性,可以适应各种不同的应用场景和需求。如生成幻觉、对于新闻新技术等新知识的缺失问题,以及在回答时很难给出到我们可追溯以及透明的过程和论证,而RAG可以提供更准确的回答、降低训练过程产生的成本、实现外部记忆。面向大规模数据以及需要高速响应的需求时,向量数据库也需要优化,尤其对向量表示的优化,对向量表示的优化将直接影响RAG结果的好坏。可以将RAG理解成搜索引擎,将用户输入的内容作为索引,在外部知识库中搜寻相应的内容,结合大语言模型的能力生成回答。

2024-04-14 19:25:26 912

原创 书生浦语大模型实战营第二期第二次课

八戒-Chat-1.8B 是利用《西游记》剧本中所有关于猪八戒的台词和语句以及 LLM API 生成的相关数据结果,进行全量微调得到的猪八戒聊天模型。八戒-Chat-1.8B 能够回答各种问题,提供建议、信息和娱乐,并与用户进行自然语言交互。课程文档:https://github.com/InternLM/Tutorial/blob/camp2/helloworld/hello_world.md。课程视频:https://www.bilibili.com/video/BV1AH4y1H78d/

2024-04-05 14:15:50 338

原创 浦语大模型demo实战

基础作业:使用 InternLM2-Chat-1.8B 模型生成 300 字的小故事截图

2024-04-05 13:17:55 91 1

原创 书生浦语大模型实战营第二期第一次课

8月发布:升级对话模型InternLM-Chat-7B和智能体框架Lagent,InternLM千亿参数模型参数量升级至123B,使模型能够更好地进行对话交互,并提供更丰富的智能体框架。- 9月发布:中等尺寸模型与优化工具链,为不同需求提供适用的模型尺寸,并进一步优化工具链,提升模型性能。英特尔M2的开源提供了一种提升模型性能、支持复杂场景的解决方案,并提供了不同尺寸的模型以适应不同需求。- 7月升级:支持8K语境和工具体系的升级,为模型提供更广阔的信息范围和更强大的工具支持。

2024-03-31 18:19:54 191 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除