chatglm
文章平均质量分 79
一意AI增效家
全网同名,0基础大模型实战星主
展开
-
#03 【chatglm】微调大模型的问题要放在哪个字段?四五个样本怎样让大模型记住?
今天,在【NLP学习群】中,一位同学一下问了2个问题,相信大家在微调时也会遇到这样的问题,自己问题应该放在instruction、input、output哪个字段,用什么格式去训练呢?还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/微调模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约40%),节省显存资源(最低无显卡2g内存也能提升),工众后台:“加速框架”;如果你还不知道该怎么微调训练模型,我系统更新了训练和微调的实战知识库,跟着一步步做,你也能把大模型的知识真正应用到实处,产生价值。原创 2023-08-02 00:18:05 · 1755 阅读 · 1 评论 -
#02【chatglm】PyTorch没有启用CUDA报错,重装也没用!-已解决
环境配置问题:即使你已经正确安装了CUDA版本的PyTorch,有时候可能在运行代码时会使用与CUDA支持不一致的环境(例如,如果你在一个不支持CUDA的环境中运行代码)。还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/微调模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约40%),节省显存资源(最低无显卡2g内存也能提升),工众后台:“加速框架”;今天,在【NLP学习群】中,一位同学反馈,一直卡在cuda报错,无法部署大模型,重装也没用,一意专注部署前中后问题解决,专业对口了!原创 2023-08-02 00:13:55 · 678 阅读 · 0 评论 -
#01【chatglm】双GPU微调时报错“不在相同设备上”-已解决
还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/微调模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约40%),节省显存资源(最低无显卡2g内存也能提升),工众后台:“加速框架”;如果你还不知道该怎么微调训练模型,我系统更新了训练和微调的实战知识库,跟着一步步做,你也能把大模型的知识真正应用到实处,产生价值。今天,在【NLP学习群】中,一位同学反馈,单卡微调时很顺利,但是双显卡微调时显示错误,他自己折腾好几天都没解决。为了解决这个问题,你需要确保在所有操作中使用相同的设备。原创 2023-08-02 00:08:48 · 527 阅读 · 0 评论 -
【妈妈级】清华ChatGLM2-6B本地部署搭建及测试运行,0基础小白也学得会
部署只是开始,如果想继续微调个人/企业垂直能力的model我搭建了一个数据共享交换平台,目前已收录中文对话、金融、医疗、教育、儿童故事五个领域优质数据集,还可以通过会员之间共享,工众后台:“数据集”下载。你可能像我们NLP学习群中的同学一样,遇到各种报错或问题,我每天挑选5条比较有代表性的问题及解决方法贴出来,供大家避坑;每天更新,工众后台:“问答3000条”获清单汇总。原创 2023-08-01 16:12:26 · 1502 阅读 · 1 评论