CUDA By Examples 5 - 共享内存 Shared Memory

1. 定义

a. 在变量前加上 __shared__, 此变量存储于共享内存中. 1-D或2-D都可以.
b. CUDA在每一个block中都copy了一份此变量.
c. 同一个block中的threads共享此内存, 但是无法读写其他block的拷贝.
d. 共享内存的访问延迟远低于常见的buffer.
e. 需要同步机制(synchronization)来协调threads的读写行为. 防止计算没有完成就执行后续指令.
f. 所有的thread都应该做一样的事. 如果做的事不一样(有if判断), 有些thread可能永远无法执行到同步阶段.

2. 使用共享内存求内积

#include "../common/book.h"

#define imin(a,b) (a<b?a:b)

const int N = 33 * 1024;
const int threadPerBlock = 256;
const int blockPerGrid = imin( 32, (N+threadPerBlock-1) / threadPerBlock );

__global__ void dot( float *a, float *b, float *c)
{
    //共享内存, 每个block都有一份拷贝
    __shared__ float cache[threadPerBlock];
    // thread的索引
    int tid = threadIdx.x + blockIdx.x * blockDim.x;
    // 共享内存的索引,每个block都有cache, 故只用threadIdx.x即可
    int cacheIdx = threadIdx.x;

    float temp = 0;
    while(tid<N)
    {
        //当前tid的thread负责把tid,和tid间隔threadIdx总量整数倍的向量做乘-加操作.
        temp += a[tid] * b[tid];
        tid += blockDim.x * gridDim.x;
    }
    // 完成求和之后,当前thread把和放在对应的cache中
    cache[cacheIdx] = temp;
    // 在当前block内做同步操作, 等所有thread都完成乘-加运算之后才能做reduction.
    __syncthreads();

    //reduction, 向量缩减.
    //缩减后的结果在cache[0]里.
    int i = blockDim.x/2;
    while (i!=0)
    {
        if (cacheIdx<i)
        {
            cache[cacheIdx] += cache[cacheIdx + i];

        }
        //同步, 等所有thread都完成了当次缩减了才能做下一次的缩减.
        //书上说: 同步不能放在if里面, 否则报错.
        //经过试验没有报错, 结果正确.
        __syncthreads();
        i /= 2;
    }
    // 一个block输出一个值,即cache[0]. 所以c的长度和block数量相同.
    // 限制cacheIdx == 0是为了只做一次赋值操作,节省时间.
    if (cacheIdx == 0)
    {
        c[blockIdx.x] = cache[0];
    }
    // 没有做剩下的累加操作是因为在CPU上做小批量的累加更加有效.
}

int main(void)
{
    float *a, *b, c, *partial_c;
    float *dev_a, *dev_b, *dev_partial_c;

    //分配CPU端的内存
    a = (float *)malloc( N*sizeof(float) );
    b = (float *)malloc( N*sizeof(float) );
    partial_c = (float *)malloc( blockPerGrid*sizeof(float));

    //分配GPU端的内存
    HANDLE_ERROR( cudaMalloc( (void**)&dev_a, N*sizeof(float)));
    HANDLE_ERROR( cudaMalloc( (void**)&dev_b, N*sizeof(float)));
    HANDLE_ERROR( cudaMalloc( (void**)&dev_partial_c, blockPerGrid*sizeof(float)));

    //将主机内存填入数据
    for (int i=0; i<N; i++)
    {
        a[i] = i;
        b[i] = i*2;
    }

    //将向量a和b拷入GPU
    HANDLE_ERROR( cudaMemcpy( dev_a, a, N*sizeof(float), cudaMemcpyHostToDevice));
    HANDLE_ERROR( cudaMemcpy( dev_b, b, N*sizeof(float), cudaMemcpyHostToDevice));

    //GPU上做点积运算
    dot<<<blockPerGrid, threadPerBlock>>>(dev_a, dev_b, dev_partial_c);

    //将向量拷入主机
    HANDLE_ERROR( cudaMemcpy( partial_c, dev_partial_c, blockPerGrid*sizeof(float), cudaMemcpyDeviceToHost));

    //剩余CPU运算, 求累加和
    c = 0;
    for (int i=0; i<blockPerGrid; i++)
    {
        c += partial_c[i];
    }

    //验证结果是否正确
#define sum_square(x) (x*(x+1)*(2*x+1)/6)
    printf( "Does GPU value %.6g = %.6g?\n",c,
            2 * sum_square( (float)(N-1) ) );
    //释放内存
    cudaFree( dev_a );
    cudaFree( dev_b );
    cudaFree( dev_partial_c);

    free( a );
    free( b );
    free( partial_c);

    return 0;
}

3. 不使用同步指令的问题

不使用同步指令, 可能共享内存的计算还没有完成就去执行下面的步骤了. 会造成错误.

#include "cuda.h"
#include "../common/book.h"
#include "../common/cpu_bitmap.h"

#define DIM 1024
#define PI 3.1415926535897932f

__global__ void kernel( unsigned char *ptr)
{
    int x = threadIdx.x + blockIdx.x * blockDim.x;
    int y = threadIdx.y + blockIdx.y * blockDim.y;
    int offset = x + y * blockDim.x * gridDim.x;
    __shared__ float shared[16][16];
    const float period = 128.0f;

    shared[threadIdx.x][threadIdx.y] = 
        255 * (sinf(x*2.0f*PI/period) + 1.0f)*
              (sinf(y*2.0f*PI/period) + 1.0f)/4.0f;
    // 必须加上同步指令.否则有的计算没有完成.
    __syncthreads();
    ptr[offset*4 + 0] = 0;
    ptr[offset*4 + 1] = shared[15-threadIdx.x][15-threadIdx.y];
    ptr[offset*4 + 2] = 0;
    ptr[offset*4 + 3] =255;
}
int main(void)
{
    CPUBitmap bitmap(DIM, DIM);
    unsigned char *dev_bitmap;

    HANDLE_ERROR( cudaMalloc( (void**)&dev_bitmap,
                                bitmap.image_size() ) );
    dim3 grids(DIM/16, DIM/16);
    dim3 threads(16, 16);

    kernel<<<grids, threads>>>( dev_bitmap );

    HANDLE_ERROR( cudaMemcpy( bitmap.get_ptr(), dev_bitmap,
                                bitmap.image_size(),
                                cudaMemcpyDeviceToHost ) );
    bitmap.display_and_exit();

    cudaFree( dev_bitmap );

}

有同步指令的输出(部分图):
这里写图片描述
没有同步指令的输出(部分图, 错误):
这里写图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: cesium-examples-master 是一个 Cesium 的示例项目。Cesium 是一个开源的3D地球可视化引擎,能够在Web上以浏览器为平台展示地球相关的数据和图形。cesium-examples-master 包含了一系列基于 Cesium 引擎的示例代码和样例数据,供开发人员学习和参考。 这个项目提供了丰富的示例,涵盖了各种场景和功能,如地形渲染、卫星图像展示、空中飞行效果、地球热力图、数据可视化等。每个示例都提供了完整的源代码和相关资源,开发人员可以直接运行和修改,快速了解 Cesium 的使用方式和功能特性。 cesium-examples-master 的目的是帮助开发人员加快上手 Cesium,提供具体的示例代码和实现思路,同时也是一个社区贡献的项目,任何人都可以向其中添加自己的示例代码。这对于想要共享自己的 Cesium 开发经验,或者想要通过Cesium实现自己的创意项目的开发者们来说都是很有帮助的。 总之,cesium-examples-master 是一个集合了Cesium引擎的示例代码和样例数据的项目,通过这个项目,开发人员可以学习和参考Cesium的使用方式和功能特性,同时也可以贡献自己的示例代码,为Cesium社区贡献自己的力量。 ### 回答2: cesium-examples-master是一个开源的Cesium.js示例库。Cesium.js是一个基于WebGL的开源JavaScript库,用于创建3D地球和地理信息可视化应用程序。 cesium-examples-master库中包含了大量的示例代码,用于演示如何使用Cesium.js库进行地球和地理数据可视化。这些示例涵盖了各种应用场景,包括地球浏览、地理数据可视化、飞行模拟、地球时间轴等等。 这个示例库非常有用,特别是对于那些想要利用Cesium.js构建自己的3D地球和地理信息应用程序的开发人员来说。通过学习和理解这些示例代码,开发人员可以快速上手并加快应用程序的开发速度。 此外,cesium-examples-master还可以作为一个学习资源,供初学者学习Cesium.js库的使用。通过运行和修改这些示例代码,初学者可以逐步掌握Cesium.js的各种功能和技术知识。 总之,cesium-examples-master是一个非常有用的示例库,可以帮助开发人员和初学者更好地了解和应用Cesium.js库。无论是开发3D地球和地理信息应用程序,还是学习Cesium.js库的使用,这个示例库都是一个很好的资源。如果你对Cesium.js感兴趣,不妨去查看cesium-examples-master库并尝试运行其中的示例代码。 ### 回答3: cesium-examples-master是一个Cesium的示例代码库。Cesium是一个开源的地球可视化库,用于在Web浏览器中创建交互式三维地球和地球数据的应用程序。cesium-examples-master提供了许多不同类型的示例,展示了使用Cesium创建各种地球可视化应用的能力。这些示例包括地球模型的加载、地形数据的展示、地图投影的转换、地球上的点、线和面的创建等等。通过这些示例,开发者可以学习如何使用Cesium的API来构建自己的地球可视化项目,并根据自己的需求进行修改和扩展。cesium-examples-master的代码注释详细,对于刚开始学习Cesium的开发者来说是一个很好的参考工具。在cesium-examples-master中,开发者可以找到各种应用场景的示例代码,例如飞行模拟、地球上的图层切换、轨迹的绘制和动态效果等等。总之,cesium-examples-master对于想要学习和探索Cesium地球可视化库的开发者来说是一个非常有用的资源。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值