目录
一、背景
随着chatgpt的持续火爆,越来越多的大语言模型被开发出来,大语言模型集成到现有的应用中已是大势所趋,从零到一开发一个自研的大语言模型几乎不可能,但是随着大语言模型的快速发展,开源的大语言模型如雨后春笋般出现在市面上,我们可以通过部署这些开源的大语言模型完成公司自己的大语言模型的使用。
二、思路
部署开源的大语言模型可以分为一下几个步骤:
1.从Models - Hugging Face上下载开源的模型,将下载的模型上传到服务器(gpu服务器)上
2.从网上搜集符合模型训练数据格式的数据进行模型的训练,比如你想要一个金融领域的大语言模型,你可以从网上专门搜集各种金融领域的数据作为训练数据。
3.通过模型提供的训练方法对模型进行训练,生成训练好的模型
4.将服务器上的模型通过flask或者其他的方式转成api的形式,附代码:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model