自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 Pruning(1) - structured width pruning

本文介绍了基于L1范数的结构化剪枝方法在DistilGPT2模型中的应用。

2025-06-06 17:22:23 874

原创 LangChain(3) - Medical_Assistant_Agent

任务:创建一个带有记忆和工具调用功能的医疗助手系统。由于原课程中使用到openai,我们绕开其中涉及的权限问题,使用替代方法和替代模型来实现这个 agent 系统。

2025-06-05 10:17:23 951

原创 LangChain(2) - Moderation_System

任务:实现一个基于情感来回复评论的AI助手。

2025-06-03 17:22:10 806

原创 LangChain(1) - RAG_langchain

任务:实现了一个基于本地文档的问答系统,使用Hugging Face的大语言模型(LLM)和向量数据库ChromaDB。

2025-05-28 15:06:58 900

原创 PEFT 之 Prompt-Tuning 2

这篇prompt微调主要聚焦的是:两种虚拟 token 的初始化方式​(Random or Text)

2025-05-23 17:12:50 536

原创 PEFT 之 Prompt-Tuning 1

指令微调(prompt-tuning)实践:1.在awesome-chatgpt-prompts数据集实现理解指令并续写指令。2.在english_quotes数据集上实现模仿符合数据集风格的文本。

2025-05-22 16:18:33 667

原创 PEFT 之 LoRA-Tuning

LoRA微调在bloomz模型中的实现。

2025-05-20 15:57:10 775

原创 dive_into_llms--chapter1:预训练语言模型微调与部署

DataTrainingArguments​​ 规定了与数据处理相关的参数;ModelArguments​​ 规定了与模型相关的参数;TrainingArguments​​ 直接从transformers导入,规定了训练过程参数。

2025-05-16 16:24:04 919

原创 从DeepSeek R1模型Lora微调训练认识LLaMA-Factory

(2)启动。

2025-05-14 17:21:58 232

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除