ChatGLM-Med 项目使用教程
项目介绍
ChatGLM-Med 是一个基于中文医学知识的 ChatGLM 模型微调项目。该项目通过医学知识图谱和 GPT-3.5 API 构建了中文医学指令数据集,并对 ChatGLM-6B 模型进行了指令微调,以提高其在医疗领域的问答效果。此外,基于相同的数据,还训练了医疗版本的 LLaMA 模型:华驼。
项目快速启动
环境准备
确保你已经安装了以下依赖:
- Python 3.7 或更高版本
- PyTorch 1.7 或更高版本
克隆项目
git clone https://github.com/SCIR-HI/Med-ChatGLM.git
cd Med-ChatGLM
安装依赖
pip install -r requirements.txt
运行示例
from transformers import AutoModel, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("SCIR-HI/Med-ChatGLM")
model = AutoModel.from_pretrained("SCIR-HI/Med-ChatGLM")
input_text = "请解释一下高血压的成因。"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
应用案例和最佳实践
应用案例
ChatGLM-Med 可以应用于多种医疗场景,包括但不限于:
- 在线医疗咨询
- 医学知识问答
- 医疗教育培训
最佳实践
为了获得最佳的问答效果,建议:
- 使用高质量的医学指令数据集进行微调
- 结合实际医疗场景进行模型优化
- 定期更新模型以适应最新的医学知识
典型生态项目
华驼
华驼是一个基于 LLaMA 模型的医疗版本,与 ChatGLM-Med 共享相同的数据集和微调方法。华驼模型在医疗领域的问答效果同样出色,可以作为 ChatGLM-Med 的补充或替代。
其他相关项目
- CMeKG: 中文医学知识图谱,为 ChatGLM-Med 提供了丰富的医学知识资源。
- GPT-3.5 API: 用于构建和扩展医学指令数据集。
通过这些生态项目的协同作用,ChatGLM-Med 在医疗领域的应用潜力得到了进一步的增强。