快速入门:魔乐社区模型上传分享全指南

引言

在人工智能的浪潮中,魔乐社区(Modelers)以其海量优质的AI模型库、庞大的数据集资源,以及直观易用的工具,逐渐成为开发者们追捧的热点。其中的应用开发套件openMind[1],为开发者在使用数据集或模型进行训练、微调、推理时提供强有力的支持,极大缩短开发周期。本期,我们来分享将模型分享到魔乐社区的方式。

模型上传流程

上传模型到Modelers模型库的基本流程如下:

  1. 注册用户并创建Token

  2. 创建模型仓库

  3. 上传模型

  4. 模型文件规范

Tips: 在魔乐社区分享模型时,需要明确自己是以个人名义还是代表组织进行贡献。本文以个人贡献为例子,如果您选择作为组织贡献者,建议参考管理组织来进行组织和成员的管理。

1. 注册用户并创建Token

在魔乐社区分享模型之前,需要先注册一个社区账号。

作为个人贡献者,在魔乐社区注册账号后,即可贡献模型。

由于在后续与魔乐社区的交互操作过程中需要使用到Token,需要先登录魔乐社区,在个人中心单击访问令牌,新建一个具有Write权限的令牌。

● 此Token仅在创建时展示,请妥善记录保存。

● Read:此Token权限只支持下载。

● Write:此Token权限支持上传和下载。

2. 创建模型仓库

● 登录魔乐社区,在主页右上角找到“用户头像”,并在下拉框中找到并单击创建模型按钮,如下图所示。

● 填写仓库信息后,单击创建按钮,即可创建一个模型仓库。

也可以利用openMind Hub Client通过代码的方式来创建模型仓库,代码示例参考如下。

from openmind_hub import create_repo
create_repo(repo_id="your-model-name", token="your-token")

模型仓库创建完成后,会自动生成一个模型卡片,模型卡片是一个包含模型信息的README.md文件。为了充分展示您的模型能力、约束等信息,您可以在页面上直接编辑README.md文件。

3. 模型上传的三种方式

在本小节中,您将学习如何在魔乐社区分享模型,包括以下三种方法:

● 通过Git命令将模型上传到模型仓库。

● 通过openMind Hub Client工具将模型上传到模型仓库。

● 通过openMind Library中的push_to_hub将模型上传到模型仓库。

3.1 使用Git命令上传模型

如果您在本地有仓库的副本,则可以使用git lfs上传大型文件。

3.1.1 安装Git LFS

执行以下命令安装git lfs。安装只需执行一次即可,无需在每个本地仓库都执行。

git lfs install
3.1.2 追踪大型文件

在本地Git仓库中追踪大型文件(100MB以上)。根据实际需要,追踪相应文件,可以是某一类型,也可以是具体的文件名。示例如下:

git lfs track "*.7z" "*.bin" "*.bz2" "*.ckpt" "*.h5" "*.lfs.*" "*.mlmodel" "*.model"\
 "*.npy" "*.npz" "*.onnx" "*.pb" "*.pickle" "*.pkl" "*.pt" "*.pth" "*.rar" "*.safetensors"\
 "saved_model/**/*" "*.tar.*" "*.tar" "*.tgz" "*.zip" "*tfevents*" "*.gz"

也可以追踪特定大型文件,示例如下:

git lfs track "big_file.bin"
3.1.3 使用Git上传

在本地仓库中,将模型文件添加到Git跟踪中,然后使用Git命令上传。

git add your-model-file
git commit -m 'commit message'
git push
3.1.4 Git上传的账号密码

git上传时需要输入账号与密码,示例如下:

Username for 'https://modelers.cn': 魔乐社区账号名
Password for 'https://modelers.cn': 权限为Write的token

3.2 使用openMind Hub Client上传模型

openMind Hub Client是一个工具。通过openMind Hub Client,开发者使用命令行界面即可将模型上传到模型仓库。

3.2.1安装openMind Hub Client

参考安装openMind Hub Client,安装openMind Hub Client。

3.2.2 上传模型文件

openMind Hub Client提供了upload_folder函数向仓库上传文件夹。常用参数:

folder_path: 要上传的本地文件夹的路径,必选。

repo_id:仓库地址,必选。

以下代码示例将本地/path/to/local/folder文件夹中所有文件上传到仓库username/your-model-name,默认情况下,文件夹内的所有文件都将上传到仓库的根目录。

import openmind_hub

openmind_hub.upload_folder(
    folder_path="/path/to/local/folder",
    repo_id="username/your-model-name",
    token="your-token",
)

此外,如果您想对上传的文件类型进行过滤,可以使用allow_patternsignore_patterns 参数:

allow_patterns:只允许某类文件上传。如allow_patterns=["*.bin", "*.txt"]表示只上传以.bin和.txt结尾的文件。

ignore_patterns:忽略某类文件的上传。如ignore_patterns="**/logs/*.txt"表示忽略所有文本日志文件。

3.3 使用push_to_hub上传模型

push_to_hub是openMind Library中trainers模块提供的一个便捷接口。它能够在模型训练完成后,自动将您的模型、配置文件以及其他相关文件上传到指定的魔乐社区仓库中。这一功能不仅简化了模型分享的流程,还使得魔乐社区的用户能够更方便地访问和利用您的优秀模型成果。

3.3.1 安装openMind Library以及openMind Hub Client

参考以下文档安装openMind Library以及openMind Hub Client:

安装openMind Library

安装openMind Hub Client

3.3.2 使用push_to_hub上传

示例:

from openmind import Trainer, TrainingArguments
from your_utils import YourModel, YourDataCollator, YourTokenizer
from your_datasets import your_train_dataset, your_eval_dataset
  
model = YourModel(...)  
tokenizer = YourTokenizer(...)  
data_collator = YourDataCollator(...)
  
training_args = TrainingArguments(  
    output_dir='./results',          # output directory  
    num_train_epochs=3,              # total number of training epochs  
    per_device_train_batch_size=16,  # batch size per device during training  
    warmup_steps=500,                # number of warmup steps for learning rate scheduler  
    weight_decay=0.01,               # strength of weight decay  
    logging_dir='./logs',            # directory for storing logs  
    push_to_hub=True,                # push the model to openMind Hub  
    hub_model_id="username/your-model-name",  # the name of the repository to push to  
)  
  
trainer = Trainer(  
    model=model,  
    args=training_args,  
    train_dataset=your_train_dataset,  
    eval_dataset=your_eval_dataset,  
    tokenizer=tokenizer,  
    data_collator=data_collator  
)  
  
trainer.train()

在示例代码中,需要特别留意push_to_hub=Truehub_model_id这两个参数。

● 设置push_to_hub=True意味着您希望将训练完成的模型自动上传到魔乐社区,与广大社区成员分享您的成果。

● 设置hub_model_id则是由您在魔乐社区的用户名和您希望创建的仓库名称组合而成,共同构成了一个独一无二的标识符。

上述完成之后,您只需登录魔乐社区,访问个人仓库,即可查看和管理自己上传的模型及其他文件。这一流程不仅简化了模型分享的流程,也有利于让您的模型在魔乐社区中得到广泛的传播和应用。

4. 模型文件规范

魔乐社区对上传的模型有一些具体的规范和要求,具体涉及上传文件清单及推理脚本要求,主要作用是:

● 规范示例脚本,方便其余用户快速方便的运行在NPU上。

● 支撑模型可用性测试,更多相关内容及推理脚本撰写方式可查看模型可用性测试

4.1 上传模型库文件清单

上传模型库文件需要包含以下内容:

● 模型权重文件:权重,tokenizerconfig.json等(如果transformers或openMind Library不支持对应模型结构,请注意上传modeling_xxx.py文件。

● README.md:对模型的介绍和使用指南。

● 推理脚本文件:模型运行脚本示例,放置于examples文件夹。

4.2 README上传过程修改点

● 如果README.md涉及示例代码,请将示例代码更新为基于openMind套件可运行的代码。

● README.md上传到模型仓库后,请选择更新tag,包括内容如下:

pipeline_tag
frameworks
license
library_name
hardwares
language

● 请确保README.md中涉及的图片,链接等显示跳转无问题,如果必要可上传至模型仓用相对路径引用。

4.3 推理脚本文件

模型推理脚本涉及的文件及编程规范可参考模型可用性测试

结语

本次主要讲述在魔乐社区分享模型的经验,希望大家一起交流,助力AI技术的发展:
https://modelers.cn
在这里插入图片描述

openMind,一款应用使能开发套件,为各大模型社区提供支持,提供海量模型/数据托管能力、在线推理体验服务,同时具备模型训练、微调、评估、推理等全流程开发能力。开发者通过简单的API接口即可实现微调、推理等任务,极大缩短开发周期,助力AI技术的创新发展。目前,openMind已支持欢迎在魔乐等AI生态社区,欢迎了解:

● openMind Library介绍:https://modelers.cn/docs/zh/openmind-library/overview.html

● openMind Hub Client介绍:https://modelers.cn/docs/zh/openmind-hub-client/overview.html

● 一文教你10分钟体验魔乐社区:https://modelers.cn/docs/zh/community/quick_start.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值