- 博客(3)
- 收藏
- 关注
原创 ChatGLM3-6B本地部署LORA微调模型合并以及使用
IndexError: index out of range in self 原因是数据集太少了,增加数据集,或者修改为1。合并完成后直接使用的话要把Chatglm3-6B原始模型里面的几个Token文件复制到合并以后的文件夹中,不然会报错。用到其他调用方式的把模型地址替换一下就好了。运行代码python finetune_hf.py [数据集地址]finetune_hf.py,各种参数在lora.yaml文件中进行调整。'更换为自己的文件夹地址以及想用的提示词。将微调后的模型和原来的模型进行合并。
2024-04-12 11:27:52 2094
原创 汽车行业预测各店下个月的售后产值以及回厂台次
使用二级Stacking对模型进行构建,其中基模型通过对决策树、随机森林、XGboost、LightGBM、CatBoost、Linear Regression、Lasso、Gradient Boosting这些模型进行比较,选取4个作为基模型。判断该经销商是否退网,以及按照业务方面要求对不符合要求的数据进行剔除,每个保有客户平均回店次数在2次左右,平均每个客户一年的产值大概在1100元左右,从而计算出来每个店平均每月的产值,对差值过大的数据进行剔除。(4)数据特征构建。(1)空值、缺失值删除该条记录。
2024-04-10 16:18:49 690 1
原创 AttributeError: ‘ChatGLMModel‘ object has no attribute ‘prefix_encoder‘
微调ChatGLM模型以后报错,试了所有方法发现都不行,最后发现是web_demo.bat中忘记加^了。
2024-01-29 11:28:33 434
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人