AutoDL平台transformers环境搭建

AutoDL平台transformers环境搭建

租借GPU可以参考

AutoDL平台租借GPU详解

一、激活base环境

1.进入终端

vim  ~/.bashrc

2、然后按英文模式的 i 进入编辑,按键盘下键到最后输入

source root/miniconda3/etc/profile.d/conda.sh

3、然后先按键盘Esc键,使用命令 :wq 保存退出

4、输入以下命令刷新

bash

5、进入conda环境

conda activate base
# 可能会报错‘...conda init’
#1、执行:
conda init
#2、执行:
bash
#3、重新激活:
conda activate base

二、创建自己的环境

# 1、创建transformers环境
(base) root@autodl-container-adbc11ae52-f2ebff02:~# conda create -n transformers python=3.9 -y



# 2、此时,会有两个环境
(base) root@autodl-container-adbc11ae52-f2ebff02:~# conda info --envs
# conda environments:
#
base                  *  /root/miniconda3
transformers             /root/miniconda3/envs/transformers

# 3、激活创建的环境
(base) root@autodl-container-adbc11ae52-f2ebff02:~# conda activate transformers
(transformers) root@autodl-container-adbc11ae52-f2ebff02:~# 


# 4、安装pytorch

# 4.1 查看机器支持的cuda版本,可以看到最高支持到CUDA Version: 12.0
(transformers) root@autodl-container-adbc11ae52-f2ebff02:~# nvidia-smi 
Sat Oct 14 11:40:39 2023       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 525.89.02    Driver Version: 525.89.02    CUDA Version: 12.0     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  NVIDIA GeForce ...  On   | 00000000:3D:00.0 Off |                  N/A |
| 30%   32C    P8    19W / 250W |     14MiB / 11264MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
+-----------------------------------------------------------------------------+

# 4.2 设置下载源为清华源
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple


# 4.3 进入pytorch官网下载最新版pytorch
# https://pytorch.org/
# 推荐使用pip安装

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

在这里插入图片描述

# 4.4 测试是否安装成功
(transformers) root@autodl-container-adbc11ae52-f2ebff02:~# python
Python 3.9.18 (main, Sep 11 2023, 13:41:44) 
[GCC 11.2.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> 
>>> print(torch.__version__)
2.1.0+cu118
>>> print(torch.cuda.is_available())
True
>>> 


# 5、安装transformers相关库
pip install transformers datasets evaluate peft accelerate gradio optimum sentencepiece
pip install scikit-learn pandas matplotlib tensorboard nltk rouge

# 6、验证安装是否成功
>>> from transformers import *
>>> 



# 7、虚拟环境添加到可选的kernel
conda install ipykernel
ipython kernel install --user --name=transformers

此时我们在jupyter上刷新页面,就能看到自己刚装的环境

在这里插入图片描述

以后使用的时候,可以选择此环境

在这里插入图片描述

AutoDLAutomated Machine Learning)是一种自动化机器学习的方法,它试图简化数据科学家的工作流程,通过自动搜索算法、超参数以及特征工程,帮助用户快速找到高性能的模型。当部署一个基于AutoDL的大模型后端时,通常涉及以下几个步骤: 1. **模型选择**:AutoDL系统会在训练过程中生成多个候选模型,然后根据性能指标如准确率、效率等进行评估。部署时,你会选择表现最好的模型或一组模型进行集成。 2. **模型封装**:你需要将选中的模型转换为适合生产环境的格式,例如使用Hugging Face的Transformers库进行序列建模,或者PyTorch或TensorFlow的API进行结构化模型部署。 3. **API设计**:创建RESTful API接口或SDK,让前端能够发送请求来调用模型进行预测。这可能包括输入验证、处理请求、调用模型、返回结果等功能。 4. **后端服务**:设置服务器来运行模型服务,可以选择云平台如AWS、Google Cloud、Azure等,也可以自己搭建Docker容器或者Kubernetes集群。 5. **负载均衡**:如果模型预测量较大,可能需要配置负载均衡器,确保请求被分发到各个实例上,避免单点压力。 6. **监控和日志**:对服务进行实时监控,记录关键指标,以便识别并解决问题。可以使用Prometheus、Grafana等工具进行监控。 7. **安全性和隐私**:确保数据传输的安全性,例如使用HTTPS,同时遵守GDPR等相关法规,保护用户数据。 8. **更新迭代**:随着技术发展和新的数据出现,持续对模型进行优化或替换,保持系统的竞争力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值