Thread与Warp

原创 2015年07月10日 14:46:51

__ballot(int predicate):指的是当前线程所在的Wrap中第N个线程对应的predicate值不为零,则将整数零的第N位进行置位

__popc(ballot(int predicate)):返回warp中bool不为零的线程数目

asm("mov.u32 %0, %laneid;" : "=r"(ret)):获得ret为当前线程在所在Warp中的ID

unsigned int ret;
asm("mov.u32 %0, %lanemask_lt;" : "=r"(ret));

__popc(ret & __ballot(int predicate)):返回的值为当前线程在所在的Warp中是第几个满足条件的


Example:

#include "cuda_runtime.h"
#include "device_launch_parameters.h"
#include "device_functions.h"
#include <iostream>

using namespace std;

__device__ __forceinline__ int laneId()
{
	unsigned int ret;
	asm("mov.u32 %0, %laneid;" : "=r"(ret));
	return ret;
}

__device__ __forceinline__ int laneMaskLt()
{
	unsigned int ret;
	asm("mov.u32 %0, %lanemask_lt;" : "=r"(ret));
	return ret;
}

__global__ void testKernel(int *a, int *b, int *c, int *d, int *e, int n)
{
	int x = threadIdx.x + blockIdx.x * blockDim.x;
	if (x >= n)
	{
		return;
	}
	a[x] = __ballot(x > 10);
	b[x] = laneMaskLt();
	d[x] = __popc(b[x] & a[x]);
	c[x] = __popc(a[x]);
	e[x] = laneId();
}

int main()
{
	int *a, *b, *c, *d, *e, *dev_a, *dev_b, *dev_c, *dev_d, *dev_e;
	int n = 64;
	int size = n * sizeof(int);
	a = (int *)malloc(size);
	b = (int *)malloc(size);
	c = (int *)malloc(size);
	d = (int *)malloc(size);
	e = (int *)malloc(size);
	cudaMalloc(&dev_a, size);
	cudaMalloc(&dev_b, size);
	cudaMalloc(&dev_c, size);
	cudaMalloc(&dev_d, size);
	cudaMalloc(&dev_e, size);

	testKernel<<<1, n>>>(dev_a, dev_b, dev_c, dev_d, dev_e, n);

	cudaMemcpy(a, dev_a, size, cudaMemcpyDeviceToHost);
	cudaMemcpy(b, dev_b, size, cudaMemcpyDeviceToHost);
	cudaMemcpy(c, dev_c, size, cudaMemcpyDeviceToHost);
	cudaMemcpy(d, dev_d, size, cudaMemcpyDeviceToHost);
	cudaMemcpy(e, dev_e, size, cudaMemcpyDeviceToHost);

	for (int i = 0; i < n; ++i)
	{
		printf("%d    %d    %d    %d    %d\n", a[i], b[i], c[i], d[i], e[i]);
	}
	cudaFree(dev_a);
	cudaFree(dev_b);
	cudaFree(dev_c);
	cudaFree(dev_d);
	cudaFree(dev_e);
	free(a);
	free(b);
	free(c);
	free(d);
	free(e);
}




版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

CUDA中grid、block、thread、warp与SM、SP的关系

首先概括一下这几个概念。其中SM(Streaming Multiprocessor)和SP(streaming Processor)是硬件层次的,其中一个SM可以包含多个SP。thread是一个线程...

Cuda束表决函数(warp vote)

CUDA束表决函数 束表决函数:简单的理解就是在一个warp内进行表决 __all(int predicate):指的是predicate与0进行比较,如果当前线程所在的Wrap所有线程对应pred...

ibm os/2 warp3 繁體中文版

  • 2012-09-21 17:07
  • 34.15MB
  • 下载

Time Warp in Animation

转自 http://wangling.me/2011/06/time-warp-in-animation.html#fn-1 David Rönnqvist did a better job a...

Warp_Dash_v1.5.1.ipa iphone

  • 2012-02-18 08:07
  • 17.13MB
  • 下载

自定义RatingBar控件,实现可自定义星星(或项目所需图片)的宽高,告别使用warp_content导致控件大小不可控

自定义RatingBar控件,实现可自定义星星(或项目所需图片)的宽高,告别使用warp_content导致控件大小不可控
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)