通义千问部署搭建


部署参考视频

通义千问-7B-预训练-模型库

一、部署1

1.1 打开通义千问-7B-预训练-模型库-选择资源

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

1.2 使用Netbook

在这里插入图片描述
弹出新页面
在这里插入图片描述

2.1 运行

在这里插入图片描述

2.2 复制脚本

from modelscope import AutoModelForCausalLM, AutoTokenizer
from modelscope import GenerationConfig
import datetime
print("启动时间:" + str(datetime.datetime.now()))
tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen-7B-Chat", revision = 'v1.0.5',trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("qwen/Qwen-7B-Chat", revision = 'v1.0.5',device_map="auto",offload_folder="offload_folder", trust_remote_code=True,fp16 = True).eval()
model.generation_config = GenerationConfig.from_pretrained("Qwen/Qwen-7B-Chat",revision = 'v1.0.5', trust_remote_code=True) # 可指定不同的生成长度、top_p等相关超参
model.float()

print("开始执行:" + str(datetime.datetime.now()))
response, history = model.chat(tokenizer, "你好", history=None)
print(response)
print("第一个问题处理完毕:" + str(datetime.datetime.now()))
response, history = model.chat(tokenizer, "浙江的省会在哪里?", history=history) 
print(response)
print("第二个问题处理完毕:" + str(datetime.datetime.now()))
response, history = model.chat(tokenizer, "它有什么好玩的景点", history=history)
print(response)
print("第三个问题处理完毕:" + str(datetime.datetime.now()))

在这里插入图片描述
在这里插入图片描述

2.2.1 问题1 :ImportError: This modeling file requires the following packages that were not found in your environment: transformers_stream_generator. Run pip install transformers_stream_generator

在这里插入图片描述

解决方法
pip install transformers_stream_generator
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
这就好了,重新运行下
在这里插入图片描述
ValueError: The current device_map had weights offloaded to the disk. Please provide an offload_folder for them. Alternatively, make sure you have safetensors installed if the model you are using offers the weights in this format.

参照这哥们的
https://zhuanlan.zhihu.com/p/649272911

在这里插入图片描述

2.3 查看结果

3.其他作者的demo

3.1 克隆代码

git clone https://gitee.com/JokerBao/Qwen-7B-FastWeb.git

在这里插入图片描述

3.2 加载依赖

pip install -r requirements.txt

在这里插入图片描述

3.3 运行代码

python Qwen_demo.py

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、部署2

1.1 启动服务器

在这里插入图片描述

1.2 使用官方提供的demo

拉代码

git clone https://github.com/QwenLM/Qwen-7B.git

在这里插入图片描述

1.2 为了拉去大模型,更新LFS

apt-get update

在这里插入图片描述
在这里插入图片描述

apt-get install git-lfs

在这里插入图片描述

2.1 拉千问模型文件

git clone https://www.modelscope.cn/qwen/Qwen-7B-Chat.git

初始化一下

git init
git lfs install

在这里插入图片描述

2.1.1模型下载成功

在这里插入图片描述

2.1.2 安装依赖

为了方便我把模型移动到一开始的文件夹里面
在这里插入图片描述

pip install -r requirements.txt

在这里插入图片描述
也可以使用web依赖

pip install -r requirements_web_demo.txt

3.1 修改web.demo.py地址

在这里插入图片描述
然后ctrl+s 保存

4 运行

 python web_demo.py 

5 成功

在这里插入图片描述

5开启量化

在这里插入图片描述

pip install bitsandbytes

在这里插入图片描述

添加依赖

from transformers import BitsAndBytesConfig
import torch

在这里插入图片描述
添加

quantization_config = BitsAndBytesConfig(
            load_in_4bit=True,
            bnb_4bit_quant_type='nf4',
            bnb_4bit_compute_dtype=torch.bfloat16)

在这里插入图片描述
在这里插入图片描述

  • 6
    点赞
  • 43
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 22
    评论
通义千问-7b是一个基于自然语言处理技术的对话系统,为了提高用户的私密性和数据安全性,可以选择进行本地部署。 本地部署指的是将通义千问-7b的服务器部署在本地的服务器或者个人电脑上,通过对话请求与用户进行交互,而不是通过连接到远程服务器。 本地部署的优点是: 1. 数据安全性更高:用户的对话数据不会发送到外部服务器,所有数据都被保存在本地,减少了被黑客攻击和隐私泄露的风险。 2. 传输速度更快:与远程服务器相比,本地部署可以大大减少请求与响应的时间延迟,提高了系统的响应速度和交互的实时性。 3. 高度可定制性:本地部署可以根据实际需要进行自定义和扩展,可以根据自己的需求进行功能增加和流程优化。 然而,本地部署也存在一些挑战和限制: 1. 需要专业知识和技术支持:搭建和维护一个本地服务器需要一定的技术能力和知识储备,对于非技术人员来说可能会有一定的困难。 2. 成本较高:相比于使用云服务,本地部署需要购买硬件设备、配置网络环境以及负责维护和更新等工作,需要投入较多的资源和精力。 3. 依赖于本地环境:本地部署可能需要保证稳定的网络连接、高性能的硬件设备和充足的存储空间,否则可能会影响系统性能和用户体验。 综上所述,通义千问-7b的本地部署为用户提供了更高的数据安全性和更快的传输速度,同时也需要考虑到技术和资源上的一些挑战和限制。用户可以根据自己的需求和实际情况来选择适合自己的部署方式。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 22
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

代码浪人

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值