240312
1、pretrain :基础大模型
2、构建数据集
3、finetune
4、评测
5、RLHF
6、评测
Prompt Engineering
过拟合&欠拟合、泛化性、正则化、分层控制、分类图集 finetune
pretrain finetune RLHF
本地部署chatglm及缓解时效性问题的思路:
模型使用chatglm-6b 4bit,推理使用hugging face,前端应用使用streamlit或者gradio。
微调对显存要求较高,还没试验。可以结合LoRA进行微调。
缓解时效性问题:通过本地数据库或者搜索引擎获取特有数据或者实时数据作为生成模型的上下文。
向量数据库实现思路:先将特有数据转换为embedding存入向量数据库,在调用模型生成问答时,先将query转换成embedding,然后从数据库查询相近的结果作为上下文。embedding生成可以使用sentence_transformer库,向量数据库可以使用qdrant或者milvus。
搜索引擎实现思路:在调用大模型生成问答时,先用搜索引擎搜索相关的词条,将词条内容或者摘要作为上下文输入到模型。搜索引擎可以使用duckduckgo_search库。