目录
三、实战:部署实战营优秀作品 八戒-Chat-1.8B 模型
四、 实战:使用 Lagent 运行 InternLM2-Chat-7B 模型
一、配置基础环境
1.首先进入控制台进行环境配置(开始没有开发机),创建后默认只有8小时的使用时间(自己可更改)
2.进入后选择terminal进行后续操作(选择JupyterLab才有改界面)
接下来的命令:
配置环境命令:
studio-conda -o internlm-base -t demo
与 studio-conda 等效的配置方案
conda create -n demo python==3.10 -y
conda activate demo
conda install pytorch2.0.1 torchvision0.15.2 torchaudio==2.0.2 pytorch-cuda=11.7 -c pytorch -c nvidia
配置完成后,进入到新创建的
conda
环境之中:conda activate demo
环境包的安装:
pip install huggingface-hub0.17.3
pip install transformers4.34
pip install psutil5.9.8
pip install accelerate0.24.1
pip install streamlit1.32.2
pip install matplotlib3.8.3
pip install modelscope1.9.5
pip install sentencepiece0.1.99
二、下载 InternLM2-Chat-1.8B
模型
1.需要创建一个新的目录后进行下载
mkdir -p /root/demo
2.创建下载文件(download_mini.py)和运行文件(cli_demo.py)
下载文件:
import os
from modelscope.hub.snapshot_download import snapshot_download创建保存模型目录
os.system(“mkdir /root/models”)
save_dir是模型保存到本地的目录
save_dir=“/root/models”
snapshot_download(“Shanghai_AI_Laboratory/internlm2-chat-1_8b”,
cache_dir=save_dir,
revision=‘v1.1.0’)
运行文件:
import torch
from transformers import AutoTokenizer, AutoModelForCausalLMmodel_name_or_path = “/root/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b”
tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True, device_map=‘cuda:0’)
model = AutoModelForCausalLM.from_pretrained(model_name_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map=‘cuda:0’)
model = model.eval()system_prompt = “”"You are an AI assistant whose name is InternLM (书生·浦语).
- InternLM (书生·浦语) is a conversational language model that is developed by Shanghai AI Laboratory (上海人工智能实验室). It is designed to be helpful, honest, and harmless.
- InternLM (书生·浦语) can understand and communicate fluently in the language chosen by the user such as English and 中文.
“”"messages = [(system_prompt, ‘’)]
print(“=Welcome to InternLM chatbot, type ‘exit’ to exit.=”)
while True:
input_text = input("\nUser >>> ")
input_text = input_text.replace(’ ', ‘’)
if input_text == “exit”:
breaklength = 0
for response, _ in model.stream_chat(tokenizer, input_text, messages):
if response is not None:
print(response[length:], flush=True, end=“”)
length = len(response)
运行效果如下:
三、实战:部署实战营优秀作品 八戒-Chat-1.8B
模型
下载和部署与前面一个项目的步骤差不多。主要是在启动方面有区别:
在项目下载完成后,启动:
streamlit run /root/Tutorial/helloworld/bajie_chat.py --server.address 127.0.0.1 --server.port 6006
1.此时需要对端口环境配置本地 PowerShell进行连接(Win+R进入powershell)
2.然后再控制台查看端口和连接密码进行连接
- 连接完成,进入 http://127.0.0.1:6006 等待加载即可:
4.加载完成,开始体验:
四、 实战:使用 Lagent
运行 InternLM2-Chat-7B
模型
整体框架图 :
部署的区别和前面差别不大,主要阐述核心步骤:
1.下载 Lagent 相关的代码库:
git clone https://gitee.com/internlm/lagent.git
git clone https://github.com/internlm/lagent.git
cd /root/demo/lagent
git checkout 581d9fb8987a5d9b72bb9ebd37a95efd47d479ac
pip install -e . # 源码安装
2.下载完成后使用 Lagent
运行 InternLM2-Chat-7B
模型为内核的智能体
需要在lagent目录下建立软连接
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b
并修改启动的模型(
gent
路径下examples/internlm2_agent_web_demo_hf.py
文件,并修改对应位置 71行左右 代码)value='/root/models/internlm2-chat-7b'
运行命令:
streamlit run /root/demo/lagent/examples/internlm2_agent_web_demo_hf.py --server.address 127.0.0.1 --server.port 6006
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)
onvert/6c361282296f86381401c05e862fe4e9.png)
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)