- 博客(1)
- 收藏
- 关注
原创 ChatGLM2-6B、ChatGLM-6B 模型训练自己数据集实战
1.较低的部署门槛: FP16 半精度下,ChatGLM-6B 需要至少 13GB 的显存进行推理,结合模型量化技术,一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4), 使得 ChatGLM-6B 可以部署在消费级显卡上。2,更长的序列长度: 相比 GLM-10B(序列长度1024),ChatGLM2-6B 序列长度达32K,支持更长对话和应用。
2023-07-10 09:54:08
1268
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人