InternLM2-1.8B 本地部署

前言

此部署教程基于NVIDIA RTX 4070,显存12G。轻度测试,完全无压力。官方介绍中说,InterLM2-1.8B仅需4GB显存的笔记本显卡即可顺畅运行;拥有8G显存的消费级显卡,即可进行1.8B模型的微调工作。

一、创建环境及安装依赖

1、创建环境

conda create --name InternLM python=3.10

2、安装Pytorch

 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

3、安装依赖

# 升级pip
python -m pip install --upgrade pip
# 更换 pypi 源加速库的安装
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

pip install modelscope==1.9.5
pip install transformers==4.35.2
pip install streamlit==1.24.0
pip install sentencepiece==0.1.99
pip install accelerate==0.24.1

二、模型下载

1、权重下载

使用 modelscope 中的 snapshot_download 函数下载模型,第一个参数为模型名称,参数 cache_dir 为模型的下载路径。

创建一个 DOWNLOAD.py 文件,输入如下内容:

import torch  
from modelscope import snapshot_download, AutoModel, AutoTokenizer


import os  
model_dir = snapshot_download('Shanghai_AI_Laboratory/internlm2-chat-1_8b', cache_dir='./test', revision='master')


在上一步创建的环境中,运行 DOWNLOAD.py文件。等待下载即可,大约需要十分钟左右。

2、源码下载

git clone https://github.com/InternLM/InternLM.git

通过 ctrl+F 快捷键来查找 load_model ,修改 chat\web_demo.py

modeltokenizer中的 path_to_weights修改为下载的权重文件路径。

在这里插入图片描述

三、Web_demo运行

1、运行指令

streamlit run web_demo.py --server.address 127.0.0.1 --server.port 6006

模型权重加载完成后即可在浏览器进行对话了。

在浏览器中输入 127.0.0.1:6006

在这里插入图片描述

因为仅修改了权重路径,所以演示图中显示的仍未 InternLM2-Chat-7B

参考链接

  1. self-llm/InternLM/03-InternLM-Chat-7B.md at master · datawhalechina/self-llm (github.com)
  2. https://github.com/InternLM/InternLM
  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值