自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 Jetson agx orin 64G LLM 微调、量化、部署(二)

前言: 之前按照网络上的帖子,直接把lora和base合并后,使用llama cpp进行量化,但结果非常不理想,量化后的模型不但失去了Lora权重的能力,并且本身的推理能力也下降了。1. 使用llamacpp,带cuda编译完成后,运行发现gpu未使用,需要增加某个参数,把模型从CPU转到GPU,具体看llamacpp的官方文档。2. 量化后的base直接加载lora,速度很慢,把lora转换为int8的gguf格式,速度正常(最终约比base慢10%)记录其中踩的坑点(主要是jetson的特性)

2024-08-20 17:28:16 271

原创 Jetson agx orin 部署 qwen14B 微调、量化 实践

硬件条件:256G 固态硬盘数据线目的:在云端微调模型,在jetson上进行合并和量化,每次更新模型只需要同步微调权重,减少网络压力(12G ->200M)。

2024-08-14 10:25:00 615 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除