Taichi的学习笔记

1 感想

南溪看了一些关于Taichi的资料,我感觉它就是“JIT+CUDA”的超强编译器,既具有“CUDA-C++”的超快速度,而且像numba.jit一样可以通过装饰器的方式使用,比较方便;

Note:
需要注意的是,Taichi跟原生PyTorch一样也不能基于Dataloader在dataset.__getitem__()中调用GPU来进行数据预处理。

Taichi具有具有以下库的同等作用:

  • 类似OpenCV:基本的图像处理操作;

2 CPU优化性能:比不上PyTorch

下面的结果是我们比较Taichi和PyTorch在进行sum运算时的性能,可以看到,对于一维向量的求和操作在CPU上的性能,PyTorch的运算速度要比Taichi要快;
在这里插入图片描述

3 控制流

3.1 For-loop:仅最外层的for循环会被优化

今天在Taichi-Slack上看到一个有趣的问题:“Is it possible to format the for loop in such a way shown in the figure, putting a parallel-for in side a serial-for? Will the inside for loop be parallel?”,这里的关键是讨论Taichi是否可以优化多层循环
答案是:Taichi只会优化最外层的for循环No, only the for loop in the outermost scope can be parallelized.)。

Note
这也许就是为什么Taichi给出的demo中常常会使用单层for循环的原因。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值