通义千问7B和7B-chat模型本地部署复现成功

先说一下我的电脑配置:

1.CUP i7-13700KF

2.GPU RTX4090

3.内存64G

在github上下载了千问开源包GitHub - QwenLM/Qwen-7B: The official repo of Qwen-7B (通义千问-7B) chat & pretrained large language model proposed by Alibaba Cloud.

新建虚拟环境,我的环境配置如下:

1.python版本3.9

2.CUDA版本12.2

3.pytorch版本2.0.1

其他的直接

pip install  -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install  -r rrequirements_web_demo -i https://pypi.tuna.tsinghua.edu.cn/simple

到这里环境配置基本完事了。

如果你直接运行web_demo.py,基本没戏。因为他自动在github上下载千文7B的模型。模型很大,8个bin的文件加到一起14.3G,国内基本下载不了。

这时,需要在国内源下载。

pip install modelscope

这是魔搭社区库,和阿里啥关系我也没关心。

安装完魔搭库以后,新建7b-chat.py文件。

代码如下:

from modelscope import AutoModelForCausalLM, AutoTokenizer
from modelscope import GenerationConfig

tokenizer = AutoTokenizer.from_pretrained("qwen/Qwen-7B-Chat", revision = 'v1.0.5',trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("qwen/Qwen-7B-Chat", revision = 'v1.0.5',device_map="auto", trust_remote_code=True,fp16 = True).eval()
model.generation_config = GenerationConfig.from_pretrained("Qwen/Qwen-7B-Chat",revision = 'v1.0.5', trust_remote_code=True) # 可指定不同的生成长度、top_p等相关超参

response, history = model.chat(tokenizer, "你好", history=None)
print(response)
response, history = model.chat(tokenizer, "浙江的省会在哪里?", history=history) 
print(response)
response, history = model.chat(tokenizer, "它有什么好玩的景点", history=history)
print(response)

运行上面的代码后,自动在下载很多个模型,速度一秒65MB左右,很爽。

 

都下载完就可以使用千问7B-chat模型对话了。

 如果你想运行通义千问开源包里面的web_demo.py。直接运行还是会重新下载模型。所以更改如下代码即可调用刚才你下载好的模型。

from argparse import ArgumentParser

import gradio as gr
import mdtex2html
#from transformers import AutoModelForCausalLM, AutoTokenizer
#from transformers.generation import GenerationConfig
from modelscope import AutoModelForCausalLM, AutoTokenizer, GenerationConfig

DEFAULT_CKPT_PATH = 'qwen/Qwen-7B-Chat'

运行代码后,产生一个链接,点击链接就可以对话了。

 

 以上是7B-chat的复现。

7B的复现也是一样的,只不过他需要再次下载7B的模型。

以下是7B和7B-chat自动下载的文件夹。

 

 

 

 

  • 9
    点赞
  • 29
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
通义千问-7b是一个基于自然语言处理技术的对话系统,为了提高用户的私密性和数据安全性,可以选择进行本地部署。 本地部署指的是将通义千问-7b的服务器部署在本地的服务器或者个人电脑上,通过对话请求与用户进行交互,而不是通过连接到远程服务器。 本地部署的优点是: 1. 数据安全性更高:用户的对话数据不会发送到外部服务器,所有数据都被保存在本地,减少了被黑客攻击和隐私泄露的风险。 2. 传输速度更快:与远程服务器相比,本地部署可以大大减少请求与响应的时间延迟,提高了系统的响应速度和交互的实时性。 3. 高度可定制性:本地部署可以根据实际需要进行自定义和扩展,可以根据自己的需求进行功能增加和流程优化。 然而,本地部署也存在一些挑战和限制: 1. 需要专业知识和技术支持:搭建和维护一个本地服务器需要一定的技术能力和知识储备,对于非技术人员来说可能会有一定的困难。 2. 成本较高:相比于使用云服务,本地部署需要购买硬件设备、配置网络环境以及负责维护和更新等工作,需要投入较多的资源和精力。 3. 依赖于本地环境:本地部署可能需要保证稳定的网络连接、高性能的硬件设备和充足的存储空间,否则可能会影响系统性能和用户体验。 综上所述,通义千问-7b的本地部署为用户提供了更高的数据安全性和更快的传输速度,同时也需要考虑到技术和资源上的一些挑战和限制。用户可以根据自己的需求和实际情况来选择适合自己的部署方式。
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值