【LawGPT模型服务器部署全流程】

本文详细描述了如何从GitHub克隆LawGPT项目,创建conda环境,下载并配置依赖,合并HuggingFace模型,以及部署和运行模型的过程,包括FTP上传和WebUI设置。遇到的外部链接问题也在文中提及,寻求解决方案。
摘要由CSDN通过智能技术生成

1.先从github上拉取最新的项目代码

从github仓库将代码git下来
在服务器你想要存储项目的文件夹下
`git clone git@github.com:pengxiao-song/LaWGPT.git`
切换至目录
`cd LaWGPT`
创建conda环境
`conda create -n lawgpt python=3.10 -y`
激活conda环境
`conda activate lawgpt`

2.下载并配置依赖

下载依赖

pip install -r requirements.txt

如果无法执行或很慢可以通过以下两种方式:
1.后台执行python代码
    nohup python -m pip install -r requirements.txt
    参考链接:https://blog.csdn.net/wtyuong/article/details/13009904
2.使用镜像下载 (-i 后面是镜像地址 --trusted-host 后面是添加信任)
    pip install -r requirements.txt -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com
    
 可使用的镜像地址:
 		阿里云 https://mirrors.aliyun.com/pypi/simple/
 		豆瓣 http://pypi.douban.com/simple/
 		清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/
 		中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
 		华中科技大学 https://pypi.hustunique.com/

3.模型合并

按照该项目github上的描述,将两个模型进行权重合并

由于服务器无法直接访问hugging face,所以我将模型下载到本地,然后ftp传到了服务器上

3.1 模型下载

base-model:chinese-alpaca-plus-7b-merged
下载地址:https://huggingface.co/minlik/chinese-alpaca-plus-7b-merged
权重:/entity303/lawgpt-lora-7b-v2
下载地址:https://huggingface.co/entity303/lawgpt-lora-7b-v2

下载步骤:

3.1.1 进入huggingface的网站,选择要下载的模型
3.1.2 点击 Files and versions 如图下载第二步的配图
3.1.3 点击下载,下就完了
下载第三步的配图

3.2 模型上传至服务器(ftp传上去就行,放到项目文件某个路径下)
3.3 修改模型合并脚本

3.3.1 修改 /scripts/merge.sh文件
将原来的直接访问hugging face的模型路径都改为本地存储模型的路径
注:注释掉的是原来路径,下面一行是我本地模型路径,第三行是合并后模型的存放路径
在这里插入图片描述3.3.2 修改/merge.py文件
还是修改了模型的路径,这里不改应该也可以
在这里插入图片描述

3.4 进行模型权重合并

bash scripts/merge.sh

4.模型运行

4.1 修改模型运行脚本

修改script/webui.sh
还是修改模型路径,base_model 选择之前合并后产生的模型
在这里插入图片描述

4.2 运行模型

执行脚本bash /scripts/webui.sh

如果运气不错,就可以将模型跑起来了并通过gradio发布的外部链接进行访问

以上

给文件授予执行权限
chmod +x /home/hhy/.conda/envs/lawgpt/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2

但我的最后发布外部链接还是有点问题,检查了也不是防火墙的问题,文件也授予了执行权限,如果有小伙伴知道为啥,还请评论教教我。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
基于Transformer的方法在心血管疾病预测方面也有一些研究。TMSS是一个基于Transformer的多模态网络,可以用于预测肿瘤的分割掩膜和患者的生存风险评分。它能够处理可用的多模态输入数据以及它们之间的交互,包括CT、PET扫描和患者的电子健康记录(EHR)\[1\]\[2\]。此外,医联MedGPT也是基于Transformer架构的模型,它在模型微调训练阶段采用了大量真实医生参与的监督微调,可以用于心血管疾病的预测和其他医疗任务\[3\]。这些基于Transformer的方法为心血管疾病的预测提供了新的思路和工具。 #### 引用[.reference_title] - *1* *2* [TMSS: 一个端对端的用于分割以及生存预测的基于transformer的多模态网络](https://blog.csdn.net/Scabbards_/article/details/130054154)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [医疗金融法律大模型:从ChatDoctor到BloombergGPT/FinGPT/FinBERT、ChatLaw/LawGPT_zh](https://blog.csdn.net/v_JULY_v/article/details/131550529)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值