[Rust-Burn][01]初体验

使用Rust Burn进行深度学习


最近大模型和以文生图很火,看到了一些Rust在高性能推理方面的应用价值,其次也看到了Rust在量化方向的潜力,准备探索一下副业。

安装

使用cargo新建项目,然后添加burn库

cargo new test_burn
cargo add burn --features wgpu,tch,cuda,dataset,train,candle

burn-tch是封装了c++版本的torch库,需要去torch官网手动下载c++版本的压缩包。

后端

burn支持多种后端进行实际的计算,如webgpu、torch、candle等,如果追求跨平台可以考虑webgpu,如果追求性能,首选torch,candle比较新,不太好评价。

测试

这里测试webgpu、torch、candle。

use burn::backend::{libtorch, LibTorch};
use burn::backend::{wgpu, Wgpu};
use burn::backend::{candle, Candle};
use burn::tensor::Tensor;


fn main() {
    {
        type MyBackend = Wgpu<wgpu::Vulkan, f32, i32>;
        let device = wgpu::WgpuDevice::DiscreteGpu(0);
        println!("{:#?}", device);

        let tensor_1 = Tensor::<MyBackend, 2>::from_data([[2., 3.], [4., 5.]], &device);
        let tensor_2 = Tensor::<MyBackend, 2>::ones_like(&tensor_1);

        println!("{}", tensor_1 + tensor_2);
    }
    {
        type MyBackend = Candle;
        let device = candle::CandleDevice::Cuda(0);
        println!("{:#?}", device);

        let tensor_1 = Tensor::<MyBackend, 2>::from_data([[2., 3.], [4., 5.]], &device);
        let tensor_2 = Tensor::<MyBackend, 2>::ones_like(&tensor_1);

        println!("{}", tensor_1 + tensor_2);
    }
    {
        type MyBackend = LibTorch;
        let device = libtorch::LibTorchDevice::Cuda(0);
        println!("{:#?}", device);
        let tensor_1 = Tensor::<MyBackend, 2>::from_data([[2., 3.], [4., 5.]], &device);
        let tensor_2 = Tensor::<MyBackend, 2>::ones_like(&tensor_1);

        println!("{}", tensor_1 + tensor_2);
    }
}

运行时需要设置torch相关的环境变量,参考tch-rs

  • 7
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值