AI Studio在线部署及预测说明

个人博客导航页(点击右侧链接即可打开个人博客):互联网老兵带你入门技术栈 

目录

  1. 功能说明
  2. 通过训练任务生成模型文件
  3. 创建一个在线服务
    3.1 第一步 选择模型文件
    3.2 第二步 确认输入输出
    3.3 第三步 制作参数转换器
    3.4 第四步 沙盒部署
  4. 测试沙盒服务
    4.1 第一步 点击【测试】打开测试页面
    4.2 第二步 填写json格式请求参数
    4.3 第三步 点击【发送】检验返回结果
  5. 部署在线服务
  6. 调用在线服务
    6.1 请求方式
    6.2 调用示例

功能说明

在线部署与预测为开发者提供训练模型向应用化API转换的功能. 开发者在AI Studio平台通过NoteBook项目完成模型训练后, 在Notebook详情页通过创建一个在线服务, 应用模型生成在线API, 使用该API可以直接检验模型效果或实际应用到开发者的私有项目中.目前, 该功能暂时仅对Notebook项目开放。

通过训练任务生成模型文件

  • 在训练任务过程中, 通过调用pa
  • 3
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大学生参加学科竞赛有着诸多好处,不仅有助于个人综合素质的提升,还能为未来职业发展奠定良好基础。以下是一些分析: 首先,学科竞赛是提高专业知识和技能水平的有效途径。通过参与竞赛,学生不仅能够深入学习相关专业知识,还能够接触到最新的科研成果和技术发展趋势。这有助于拓展学生的学科视野,使其对专业领域有更深刻的理解。在竞赛过程中,学生通常需要解决实际问题,这锻炼了他们独立思考和解决问题的能力。 其次,学科竞赛培养了学生的团队合作精神。许多竞赛项目需要团队协作来完成,这促使学生学会有效地与他人合作、协调分工。在团队合作中,学生们能够学到如何有效沟通、共同制定目标和分工合作,这对于日后进入职场具有重要意义。 此外,学科竞赛是提高学生综合能力的一种途径。竞赛项目通常会涉及到理论知识、实际操作和创新思维等多个方面,要求参赛者具备全面的素质。在竞赛过程中,学生不仅需要展现自己的专业知识,还需要具备创新意识和解决问题的能力。这种全面的综合能力培养对于未来从事各类职业都具有积极作用。 此外,学科竞赛可以为学生提供展示自我、树立信心的机会。通过比赛的舞台,学生有机会展现自己在专业领域的优势,得到他人的认可和赞誉。这对于培养学生的自信心和自我价值感非常重要,有助于他们更加积极主动地投入学习和未来的职业生涯。 最后,学科竞赛对于个人职业发展具有积极的助推作用。在竞赛中脱颖而出的学生通常能够引起企业、研究机构等用人单位的关注。获得竞赛奖项不仅可以作为个人履历的亮点,还可以为进入理想的工作岗位提供有力的支持。
好的,我可以回答你的问题。首先,你需要了解 ONNX 是什么。ONNX(Open Neural Network Exchange)是一种开放的格式,用于表示深度学习模型。ONNX 可以将模型从一个框架转换到另一个框架,从而使模型在不同的平台上运行。MNIST 手写字体识别是一个常见的示例,我们可以使用 ONNX 将该模型转换为 ONNX 格式,然后在 Windows 下使用 C++ 进行部署和调用。 以下是实现步骤: 1.首先,你需要安装 ONNX 工具包。可以从 ONNX 官网下载并安装 ONNX 工具包。 2.然后,你需要下载 MNIST 手写字体识别模型并将其转换为 ONNX 格式。你可以从 PyTorch 官网下载 MNIST 模型,使用 PyTorch 转换器将其转换为 ONNX 格式。 3.接下来,在 Windows 系统中,你需要安装 Visual Studio 2017 或更高版本。你还需要安装 CMake 和 OpenCV 库。 4.然后,你需要下载 ONNX Runtime 并将其添加到项目中。可以从 ONNX Runtime 的 GitHub 仓库下载 ONNX Runtime。 5.接下来,创建一个新的 Visual Studio 项目,将 ONNX Runtime 添加到项目中,并将 MNIST 手写字体识别模型添加到项目中。 6.然后,你可以编写 C++ 代码来加载模型并进行推理。以下是一个简单的代码示例: ``` #include <iostream> #include <vector> #include <string> #include "opencv2/opencv.hpp" #include "onnxruntime_cxx_api.h" using namespace std; using namespace cv; using namespace Ort; int main() { // Load MNIST model Env::VarLogger logger = Env::Default().GetLogger(); SessionOptions session_options; session_options.SetIntraOpNumThreads(1); session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_BASIC); const char* model_path = "mnist.onnx"; Ort::Session session{Env::Default(), model_path, session_options}; Ort::AllocatorWithDefaultOptions allocator; // Load image Mat image = imread("test.png", IMREAD_GRAYSCALE); resize(image, image, Size(28, 28)); vector<float> input_data(image.ptr<float>(), image.ptr<float>() + 28 * 28); vector<const char*> input_node_names = {"Input3"}; vector<const char*> output_node_names = {"Plus214_Output_0"}; vector<int64_t> input_node_dims = {1, 1, 28, 28}; // Run inference vector<Ort::Value> inputs; inputs.emplace_back(Ort::Value::CreateTensor<float>(allocator, input_data.data(), input_data.size(), input_node_dims.data(), input_node_dims.size())); auto output_tensors = session.Run(Ort::RunOptions{nullptr}, input_node_names.data(), inputs.data(), inputs.size(), output_node_names.data(), output_node_names.size()); // Get results vector<float> output_data(output_tensors.front().GetTensorMutableData<float>(), output_tensors.front().GetTensorMutableData<float>() + 10); int max_index = distance(output_data.begin(), max_element(output_data.begin(), output_data.end())); cout << "Predicted digit: " << max_index << endl; return 0; } ``` 这段代码将加载 MNIST 手写字体识别模型,将图像转换为模型的输入格式,运行推理并输出预测结果。 7.最后,你可以构建并运行程序,测试部署和调用 ONNX 模型的效果。 希望这个示例可以帮助你实现 Windows 下 C++ 部署调用 ONNX 模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值