自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 问答 (2)
  • 收藏
  • 关注

原创 书生·浦语大模型系列学习:总结

一、笔记二、作业。

2024-02-04 21:04:02 422 1

原创 书生·浦语大模型系列学习:Day 6 作业

使用 OpenCompass 评测 InternLM2-Chat-7B 模型在 C-Eval 数据集上的性能

2024-01-25 15:49:19 394 1

原创 书生·浦语大模型系列学习:Day 5 作业

使用 LMDeploy 以本地对话、网页Gradio、API服务中的一种方式部署 InternLM-Chat-7B 模型,生成 300 字的小故事。直接启动本地的 Huggingface 模型。

2024-01-25 14:40:28 427 1

原创 书生·浦语大模型系列学习:Day 6

OpenCompass 大模型评测。3、应用场景效果评测。

2024-01-25 14:16:06 415 1

原创 书生·浦语大模型系列学习:Day 4 作业

(因为电脑问题,有些图片无法正常显示)

2024-01-23 23:28:28 382 1

原创 书生·浦语大模型系列学习:Day 5

LMDeploy 大模型量化部署实践。核心功能:量化、推理引擎、推理服务。二、LMDeploy简介。

2024-01-23 21:59:17 406 1

原创 书生·浦语大模型系列学习:Day 4

LoRA模型是旁路分支的参数文件,通常叫Adapter。QLoRA:使用4bit量化,CPU调度进行了整合。XTuner 大模型单卡低成本微调实战。LoRA:只加载LoRA参数,减少显存。微调模式:增量预训练和指令跟随。一、Finetune简介。全参数微调加载所有参数。二、XTuner简介。

2024-01-23 21:37:46 478 1

原创 书生·浦语大模型系列学习:Day 3 作业

InternLM 接入 LangChain。复现课程知识库助手搭建过程。部署 Web Demo。下载NLTK相关资源。

2024-01-20 21:41:20 404

原创 书生·浦语大模型系列学习:Day 3

Finetune:传统自然语言处理算法微调,小训练集轻量级微调。将个性化配置引入到检索问答链中,即可构建个性化RAG应用。通用大模型具有强大的语言理解、指令跟随和语言生成能力。两种核心大模型开发方式,RAG和Finetune。缺点:受基座模型影响大,占用大量模型上下文。RAG:检索增强生成,通过匹配知识库实现。优点:可个性化微调,知识覆盖面广。LLM的局限性限制了其落地应用。缺点:成本高,无法解决实时更新。优点:成本低,可实时更新。

2024-01-20 21:13:50 449

原创 书生·浦语大模型系列学习:Day 2 作业

熟悉 hugging face 下载功能,使用。python 包,下载。

2024-01-13 21:49:45 453

原创 书生·浦语大模型系列学习:Day 2

大模型通常指的是机器学习或人工智能领域中参数数量巨大、拥有庞大计算能力和参数规模的模型。这些模型利用大量数据进行训练,并且拥有数十亿甚至数千亿个参数。大模型的出现和发展得益于增长的数据量、计算能力的提升以及算法优化等因素。这些模型在各种任务中展现出惊人的性能,比如自然语言处理、计算机视觉、语音识别等。这种模型通常采用深度神经网络结构,如BERTGPT( Generative Pre-trained Transformer )等。大模型的优势在于其能够捕捉和理解数据中更为复杂、抽象的特征和关系。

2024-01-13 17:04:06 438

原创 书生·浦语大模型系列学习:Day 1

书生·浦语在参数规模、训练数据、语境长度、应用场景等方面展现了不同的优势和适用性。

2024-01-13 15:40:25 474 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除