聊聊Unsloth微调DeepSeek-R1蒸馏模型 - 构建医疗专家模型

概述

Unsloth[1]是一个支持Llama系列、DeepSeek R1系列更快速,更少占用内存的微调库。最近提供了DeepSeek-R1模型的复现与GRPO算法的高效实现,而GRPO算法是DeepSeek模型中最关键的RL算法,而Unsloth增强优化了GRPO算法,使其使用更少的huggingface少80%的VRAM,支持在仅仅7GB的VRAM上基于Qwen 2.5-1.5b重新RL-Zero的"aha moment"。

DeepSeek的蒸馏模型是建立在Llama和Qwen架构上的,因此它们与Unsloth完全兼容。

微调

环境信息

基座模型:DeepSeek-R1-Distill-Llama-8B

微调库:Unsloth

医疗数据集:medical-o1-reasoning-SFT[2]

数据集一览

下载库及加载模型

下载依赖库,并加载模型

pip install unsloth   # Also get the latest nightly Unsloth!   pip uninstall unsloth -y && pip install --upgrade --no-cache-dir --no-deps git+https://github.com/unslothai/unsloth.git   pip install bitsandbytes unsloth_zoo   
from unsloth import FastLanguageModel   import torch   max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!   dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+   load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.      # 基于unsloth加载Llama的蒸馏模型   model, tokenizer = FastLanguageModel.from_pretrained(       model_name = "unsloth/DeepSeek-R1-Distill-Llama-8B",       max_seq_length = max_seq_length,       dtype = dtype,       load_in_4bit = load_in_4bit,       # token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf   )   
推理测试

提示词如下:

prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context.   Write a response that appropriately completes the request.   Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.      ### Instruction:   You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning.   Please answer the following medical question.      ### Question:   {}      ### Response:   <think>{}"""   
question = "一个患有急性阑尾炎的病人已经发病5天,腹痛稍有减轻但仍然发热,在体检时发现右下腹有压痛的包块,此时应如何处理?"         FastLanguageModel.for_inference(model)   inputs = tokenizer([prompt_style.format(question, "")], return_tensors="pt").to("cuda")      outputs = model.generate(       input_ids=inputs.input_ids,       attention_mask=inputs.attention_mask,       max_new_tokens=1200,       use_cache=True,   )   response = tokenizer.batch_decode(outputs)   print(response[0].split("### Response:")[1])   

输出:

<think>   首先,急性阑尾炎的常见症状包括急性发热、腹痛和腹部压痛。病人已经发病5天,腹痛有所减轻,但仍有发热,这可能意味着炎症正在缓解,但仍需密切观察。      体检发现右下腹有压痛的包块,这可能提示存在阑尾炎的复发性病变,或者是其他类型的炎症,如appendicitis perforans。需要进一步的影像学检查,如超声或CT,来明确包块的性质和位置,以确定是否有脓肿或其他结构异常。      此外,病人仍有发热,说明炎症可能未完全消退,需要考虑继续使用抗生素治疗,以防止感染延迟或扩散。同时,应密切监测病情,必要时进行进一步的治疗干预,如引流或手术。      在处理过程中,应与微生物学进行相互配合,根据病人的病原体培养结果,调整治疗方案,确保病毒、细菌的敏感性。      最后,病人的整体状况和病情变化应随时评估,以便及时调整治疗策略,确保病情得到有效控制。   </think>      在这种情况下,正确的处理步骤如下:      1. **进一步的影像学检查**:使用超声或CT检查右下腹部的包块,以确定其性质(如脓肿、腺体炎等)和位置。      2. **细菌培养和病原体检测**:进行病人的血液、脓液或包块的培养,以确定病原体的种类和抗生素敏感性。      3. **抗生素治疗**:根据病原体检测结果,选择敏感的抗生素,通常在明确病原体前开始治疗,以覆盖可能的细菌感染。      4. **监测病情变化**:密切观察病人的发热、腹痛和包块情况,必要时进行进一步的影像学或手术干预。      5. **联合治疗**:与微生物学及其他相关科室密切配合,调整治疗方案,确保病情得到控制。      6. **预防措施**:建议病人避免辛辣食物,保持饮食清淡,必要时进行护理,避免感染扩散。      通过以上步骤,可以全面评估病情,制定合理的治疗方案,确保病人的恢复。<|end▁of▁sentence|>   
准备数据集

按如上数据集准备数据,训练时的提示词如下:

train_prompt_style = """Below is an instruction that describes a task, paired with an input that provides further context.   Write a response that appropriately completes the request.   Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.      ### Instruction:   You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning.   Please answer the following medical question.      ### Question:   {}      ### Response:   <think>   {}   </think>   {}"""   
注意事项

在每个训练数据集条目的末尾添加EOS(序列结束)令牌是至关重要的,否则您可能会遇到无限生成。

EOS_TOKEN = tokenizer.eos_token  # Must add EOS_TOKEN      # 迭代训练集数据,处理prompt   def formatting_prompts_func(examples):       inputs = examples["Question"]       cots = examples["Complex_CoT"]       outputs = examples["Response"]       texts = []       for input, cot, output in zip(inputs, cots, outputs):           text = train_prompt_style.format(input, cot, output) + EOS_TOKEN           texts.append(text)       return {           "text": texts,       }   
from datasets import load_dataset   dataset = load_dataset("FreedomIntelligence/medical-o1-reasoning-SFT", 'zh', split = "train[0:500]", trust_remote_code=True)   print(dataset.column_names)   
dataset = dataset.map(formatting_prompts_func, batched = True)   print(dataset["text"][0])   

处理完后的单个训练数据格式如下:

Below is an instruction that describes a task, paired with an input that provides further context.    Write a response that appropriately completes the request.    Before answering, think carefully about the question and create a step-by-step chain of thoughts to ensure a logical and accurate response.      ### Instruction:   You are a medical expert with advanced knowledge in clinical reasoning, diagnostics, and treatment planning.    Please answer the following medical question.       ### Question:   根据描述,一个1岁的孩子在夏季头皮出现多处小结节,长期不愈合,且现在疮大如梅,溃破流脓,口不收敛,头皮下有空洞,患处皮肤增厚。这种病症在中医中诊断为什么病?      ### Response:   <think>   这个小孩子在夏天头皮上长了些小结节,一直都没好,后来变成了脓包,流了好多脓。想想夏天那么热,可能和湿热有关。才一岁的小孩,免疫力本来就不强,夏天的湿热没准就侵袭了身体。      用中医的角度来看,出现小结节、再加上长期不愈合,这些症状让我想到了头疮。小孩子最容易得这些皮肤病,主要因为湿热在体表郁结。      但再看看,头皮下还有空洞,这可能不止是简单的头疮。看起来病情挺严重的,也许是脓肿没治好。这样的情况中医中有时候叫做禿疮或者湿疮,也可能是另一种情况。      等一下,头皮上的空洞和皮肤增厚更像是疾病已经深入到头皮下,这是不是说明有可能是流注或瘰疬?这些名字常描述头部或颈部的严重感染,特别是有化脓不愈合,又形成通道或空洞的情况。      仔细想想,我怎么感觉这些症状更贴近瘰疬的表现?尤其考虑到孩子的年纪和夏天发生的季节性因素,湿热可能是主因,但可能也有火毒或者痰湿造成的滞留。      回到基本的症状描述上看,这种长期不愈合又复杂的状况,如果结合中医更偏重的病名,是不是有可能是涉及更深层次的感染?      再考虑一下,这应该不是单纯的瘰疬,得仔细分析头皮增厚并出现空洞这样的严重症状。中医里头,这样的表现可能更符合‘蚀疮’或‘头疽’。这些病名通常描述头部严重感染后的溃烂和组织坏死。      看看季节和孩子的体质,夏天又湿又热,外邪很容易侵入头部,对孩子这么弱的免疫系统简直就是挑战。头疽这个病名听起来真是切合,因为它描述的感染严重,溃烂到出现空洞。      不过,仔细琢磨后发现,还有个病名似乎更为合适,叫做‘蝼蛄疖’,这病在中医里专指像这种严重感染并伴有深部空洞的情况。它也涵盖了化脓和皮肤增厚这些症状。      哦,该不会是夏季湿热,导致湿毒入侵,孩子的体质不能御,其病情发展成这样的感染?综合分析后我觉得‘蝼蛄疖’这个病名真是相当符合。   </think>   从中医的角度来看,你所描述的症状符合“蝼蛄疖”的病症。这种病症通常发生在头皮,表现为多处结节,溃破流脓,形成空洞,患处皮肤增厚且长期不愈合。湿热较重的夏季更容易导致这种病症的发展,特别是在免疫力较弱的儿童身上。建议结合中医的清热解毒、祛湿消肿的治疗方法进行处理,并配合专业的医疗建议进行详细诊断和治疗。<|end▁of▁sentence|>   
训练模型

基于HuggingFace的SFTTrainer训练

model = FastLanguageModel.get_peft_model(       model,       r = 16, # Choose any number > 0 ! Suggested 8, 16, 32, 64, 128       target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",                         "gate_proj", "up_proj", "down_proj",],       lora_alpha = 16,       lora_dropout = 0, # Supports any, but = 0 is optimized       bias = "none",    # Supports any, but = "none" is optimized       # [NEW] "unsloth" uses 30% less VRAM, fits 2x larger batch sizes!       use_gradient_checkpointing = "unsloth", # True or "unsloth" for very long context       random_state = 3407,       use_rslora = False,  # We support rank stabilized LoRA       loftq_config = None, # And LoftQ   )      from trl import SFTTrainer   from transformers import TrainingArguments   from unsloth import is_bfloat16_supported   trainer = SFTTrainer(       model = model,       tokenizer = tokenizer,       train_dataset = dataset,       dataset_text_field = "text",       max_seq_length = max_seq_length,       dataset_num_proc = 2,       packing = False, # Can make training 5x faster for short sequences.       args = TrainingArguments(           per_device_train_batch_size = 2,           gradient_accumulation_steps = 4,           warmup_steps = 5,           max_steps = 60,           # num_train_epochs = 1, # For longer training runs!           learning_rate = 2e-4,           fp16 = not is_bfloat16_supported(),           bf16 = is_bfloat16_supported(),           logging_steps = 1,           optim = "adamw_8bit",           weight_decay = 0.01,           lr_scheduler_type = "linear",           seed = 3407,           output_dir = "outputs",           report_to = "none", # Use this for WandB etc       ),   )      # 训练   trainer_stats = trainer.train()   
微调验证

基于微调后的model,重新推理之前的question,看看新的效果:

FastLanguageModel.for_inference(model)  # Unsloth has 2x faster inference!   inputs = tokenizer([prompt_style.format(question, "")], return_tensors="pt").to("cuda")      outputs = model.generate(       input_ids=inputs.input_ids,       attention_mask=inputs.attention_mask,       max_new_tokens=1200,       use_cache=True,   )   response = tokenizer.batch_decode(outputs)   print(response[0].split("### Response:")[1])   
    <think>   嗯,这个病人已经有5天的急性阑尾炎了。最近的症状是腹痛稍微减轻,但他还是发热的。看来他的病情还没完全好转。      在体检时发现了右下腹有压痛的包块,这让我想到可能有了阻塞。也许是阑尾炎引起的炎症块,或者是其他感染性问题。      接下来,我得考虑进一步的检查。X光或者超声检查可能会帮助我更好地了解这个包块的具体位置和性质。      如果检查证实有阻塞,可能需要考虑引流手术。毕竟,阑尾炎如果没有及时处理,可能会发展成急性阑尾炎的急性阻塞炎症,甚至可能引发感染性腹膜炎。      还有,我需要确保病人的整体状况稳定。有时候,可能需要先用抗生素处理,消除感染的可能,以免阻塞情况变得更严重。      所以,综合考虑,我觉得应该首先做个X光或超声检查,评估这个包块的具体情况,然后根据检查结果决定是否需要进行引流手术。   </think>   在这种情况下,首先进行X光或超声检查是非常重要的,因为它可以帮助我们更好地了解这个包块的具体位置和性质。根据检查结果,如果发现有阻塞,我们需要考虑进行引流手术。同时,确保病人的整体状况稳定,可能需要使用抗生素来消除感染的可能性,以防止阻塞情况变得更严重。因此,建议先进行进一步的影像学检查,然后根据检查结果决定是否需要进行引流手术。<|end▁of▁sentence|>    
保存模型

要将最终模型保存为LoRA适配器,可以使用Huggingface的push_to_hub进行在线保存,或者使用save_pretrained进行本地保存。

model.save_pretrained("lora_model") # Local saving   tokenizer.save_pretrained("lora_model")   # model.push_to_hub("your_name/lora_model", token = "...") # Online saving   # tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving   

小结

基于蒸馏模型Llama 3.1 8B,在医疗数据集上做了一次微调训练,最后得到我们要的医疗模型。其实整个过程与以前的微调逻辑是差不多的,只是数据集是CoT式的,而最终的数据也是带有思考的。

在这里插入图片描述

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

### 使用Unsloth微调DeepSeek-R1蒸馏模型构建医疗领域专家模型 为了利用Unsloth框架对DeepSeek-R1蒸馏模型进行微调构建专门针对医疗领域的专家模型,可以遵循以下方法论和技术细节。 #### 准备工作 确保已经安装了必要的依赖库以及配置好了运行环境。对于特定于医疗领域的数据集准备至关重要,这些数据应该包含大量的医学术语、病例描述以及其他有助于提高模型理解能力的信息[^1]。 #### 数据预处理 在开始训练之前,需对收集到的数据执行一系列预处理操作: - 清洗文本:去除无关字符、标准化格式等; - 分词标注:依据中文特点采用合适的分词工具; - 特殊标记识别:如疾病名称、药物名等实体识别; ```python import jieba from sklearn.model_selection import train_test_split def preprocess_data(texts): processed_texts = [] for text in texts: words = " ".join(jieba.cut(text)) processed_texts.append(words) return processed_texts # 假设texts是一个列表形式的原始语料集合 X_train, X_val = train_test_split(preprocess_data(texts), test_size=0.2) ``` #### 加载基础模型与定义新架构 加载预先训练好的DeepSeek-R1蒸馏模型,并在此基础上添加额外层来适应新的任务需求。这一步骤通常涉及到迁移学习的概念,在保持原有参数不变的情况下仅调整最后一部分网络结构以匹配目标任务特性。 ```python from transformers import AutoModelForSequenceClassification, Trainer, TrainingArguments model_name_or_path = 'path_to_deepseek_r1_distilled_model' num_labels = 2 # 或者更多类别数取决于具体应用场景 base_model = AutoModelForSequenceClassification.from_pretrained(model_name_or_path, num_labels=num_labels) class CustomMedicalExpertModel(AutoModelForSequenceClassification): def __init__(self, config): super().__init__(config) self.additional_layers = ... # 定义附加神经元层 custom_model = CustomMedicalExpertModel(base_model.config) ``` #### 训练过程设置 通过`Trainer`类简化整个训练流程管理,包括但不限于损失函数的选择、优化器设定等方面的工作。同时考虑到GPU资源的有效利用率问题,建议合理规划batch size大小及epoch次数等超参选项。 ```python training_args = TrainingArguments( output_dir='./results', evaluation_strategy="steps", eval_steps=500, save_total_limit=2, per_device_train_batch_size=8, gradient_accumulation_steps=4, learning_rate=5e-5, weight_decay=0.01, adam_epsilon=1e-8, max_grad_norm=1.0, logging_dir='./logs', logging_first_step=True, logging_steps=10, fp16=True, dataloader_num_workers=4 ) trainer = Trainer( model=custom_model, args=training_args, train_dataset=train_dataset, eval_dataset=val_dataset ) trainer.train() ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值