参考
之前看别人代码时注意到这两种用法,但感觉不实用,因为这些操作 tensor 自身就可以完成。
accessor
如果 tensor 在 CPU 上,使用 accessor 访问。
/**
* x 的类型为 CPUFloatType { 100, 100 }
* x_data.size(0) = 100
* x_data.size(1) = 100
**/
auto x_data = x.accessor<float, 2>();
/* 访问单个元素 */
float x = x_data[50][50];
/* x_data.data() 是数据首地址 */
float array[100][100];
memcpy(array, x_data.data(), 100*100*sizeof(float));
packed_accessor
如果 tensor 在 CUDA 上,使用 packed_accessor 访问。
官网上的例程在 .cpp 中加上头文件 cuda_runtime.h,可以编译成功,但运行失败,之后把 .cpp 改成 .cu 倒是成功了(cmake 对应的要修改为 project(hellotorch CXX CUDA),关于 cmake 构建 CUDA 应用程序可以参考这里)。
/**
* x 的类型为 CUDAFloatType { 100, 100 }
* x_data.size(0) = 100
* x_data.size(1) = 100
**/
auto x_data = x.packed_accessor32<float, 2>();
/* 不能访问单个元素! */
// float x = x_data[50][50];