【xinference】(10):在autodl上运行xinf和chatgpt-web配置联动,xinf运行qwen-1.5大模型做api后端,使用国内源解决nodejs安装问题。本地运行大模型方法

23 篇文章 1 订阅
9 篇文章 0 订阅

1,关于chatgpt-web项目

【xinference】(10):在autodl上运行xinf和chatgpt-web配置联动,xinf运行qwen-1.5大模型做api后端

https://gitcode.com/Chanzhaoyu/chatgpt-web/overview

还是非常不错的:

在这里插入图片描述

2,node安装有点慢,直接解压缩二进制文件

echo "start downloading node-v20.14.0-linux-x64.tar.xz "
wget https://mirrors.aliyun.com/nodejs-release/v20.14.0/node-v20.14.0-linux-x64.tar.gz
tar -zxvf node-v20.14.0-linux-x64.tar.gz
rm -f node-v20.14.0-linux-x64.tar.gz

export NODE_PATH=/root/autodl-tmp/xinference-run-llm/node-v20.14.0-linux-x64
export PATH=$PATH:$NODE_PATH/bin

    

配置好环境变量就可以使用 npm 安装了。

3,使用chatgpt-web需要启动两个 npm run 服务

第一个是web 在当前目录

第二个是 service ,里面有nodejs的服务接口。

然后就可以启动成功了。

最重要是进行配置:

export AUTH_SECRET_KEY=1234
# 配置xinf 接口服务:
export OPENAI_API_KEY=1234
export OPENAI_API_MODEL=qwen1.5-chat
export OPENAI_API_BASE_URL=http://0.0.0.0:9997/v1

全部脚本地址:

https://gitee.com/fly-llm/xinference-run-llm/blob/master/run_chatgpt_web.sh

4,启动xinference项目,安装qwen1.5大模型

git clone https://gitee.com/fly-llm/xinference-run-llm.git

# 然后 启动qwen 大模型,即可。
# https://inference.readthedocs.io/zh-cn/latest/models/builtin/llm/qwen1.5-chat.html

# 0.5 版本
xinference launch --model-engine transformers --model-name qwen1.5-chat \
 --size-in-billions 0_5 --model-format pytorch --quantization none

# 7b版本
xinference launch --model-engine transformers --model-name qwen1.5-chat \
 --size-in-billions 7 --model-format pytorch --quantization 8-bit

5,最终效果,前后端联合本地运行效果

前端使用chatgpt-web,后端使用xinference 项目做api
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值