cuda并行归约算法(不断优化过程)

归约

在这里插入图片描述

方法

在这里插入图片描述

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[101], int b[101]) {
    __shared__ int sdata[101];
    int idx = threadIdx.x;
    int x = blockIdx.x * blockDim.x + threadIdx.x;
    sdata[idx] = a[x];
    __syncthreads();
    for (int s = 1; s < blockDim.x; s *= 2) {
        if (idx % (s * 2) == 0) {
            sdata[idx] += sdata[idx + s];
        }
        __syncthreads();
    }
    if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[101];
    int *da,*db;
    int hb[101];
    for(int i = 0; i <= 100; i++)
            ha[i] = i;


    cudaMalloc((void**)&da, sizeof(int) * 101);
    cudaMalloc((void**)&db, sizeof(int) * 101);
    cudaMemcpy(da, ha, sizeof(int) * 101, cudaMemcpyHostToDevice);
    dim3 Block(101);
    jia << <1, Block >> > (da,db);
    cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
    cout << hb[0] << endl;
    cudaFree(da);
    cudaFree(db);
}

优化一

在这里插入图片描述
在上一方法中对于线程的使用由于间隔使用会造成很大的资源浪费

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[101], int b[101]) {
    __shared__ int sdata[101];
    int idx = threadIdx.x;
    int x = blockIdx.x * blockDim.x + threadIdx.x;
    sdata[idx] = a[x];
    __syncthreads();
    for (int s = 1; s < blockDim.x; s *= 2) {
        int indx = 2 * s * idx;
        if (indx<blockDim.x) {
            sdata[indx] += sdata[indx + s];
        }
        
        __syncthreads();
    }
    if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[101];
    int *da,*db;
    int hb[101];
    for(int i = 0; i <= 100; i++)
            ha[i] = i;


    cudaMalloc((void**)&da, sizeof(int) * 101);
    cudaMalloc((void**)&db, sizeof(int) * 101);
    cudaMemcpy(da, ha, sizeof(int) * 101, cudaMemcpyHostToDevice);
    dim3 Block(101);
    jia << <1, Block >> > (da,db);
    cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
    cout << hb[0] << endl;
    cudaFree(da);
    cudaFree(db);
}

优化二

在这里插入图片描述
提高内存访问效率

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[128], int b[128]) {
	__shared__ int sdata[100];
	int idx = threadIdx.x;
	int x = blockIdx.x * blockDim.x + threadIdx.x;
	sdata[idx] = a[x];
	__syncthreads();
	for (int s = blockDim.x / 2; s > 0; s /= 2) {
		if (idx < s) {
			sdata[idx] += sdata[idx + s];
		}
		__syncthreads();
	}
	if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[128] = { 0 };
	int* da, * db;
	int hb[128];
	for (int i = 0; i < 100; i++)
		ha[i] = i + 1;

	cudaMalloc((void**)&da, sizeof(int) * 128);
	cudaMalloc((void**)&db, sizeof(int) * 128);
	cudaMemcpy(da, ha, sizeof(int) * 128, cudaMemcpyHostToDevice);
	dim3 Block(128);
	jia << <1, Block >> > (da, db);
	cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
	cout << hb[0] << endl;
	cudaFree(da);
	cudaFree(db);
}

优化三

在加载共享内存时可以在一个共享内存中同时加载两个数值进去,先进行一次归约,提高效率

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<math.h>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[128], int b[128]) {
	__shared__ int sdata[100];
	int idx = threadIdx.x;
	int x = blockIdx.x * blockDim.x + threadIdx.x * 2;
	sdata[idx] = a[x] + a[x + 1];
	__syncthreads();
	for (int s = blockDim.x / 2; s > 0; s /= 2) {
		if (idx < s) {
			sdata[idx] += sdata[idx + s];
		}
		__syncthreads();
	}
	if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[128] = { 0 };
	int* da, * db;
	int hb[128];
	for (int i = 0; i < 100; i++)
		ha[i] = i + 1;

	cudaMalloc((void**)&da, sizeof(int) * 128);
	cudaMalloc((void**)&db, sizeof(int) * 128);
	cudaMemcpy(da, ha, sizeof(int) * 128, cudaMemcpyHostToDevice);
	dim3 Block(128);
	jia << <1, Block >> > (da, db);
	cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
	cout << hb[0] << endl;
	cudaFree(da);
	cudaFree(db);
}

优化四

在这里插入图片描述

当我们执行到只有32个线程在计算值的时候,此时只有一个warp在使用而其他的warp没有使用此时会造成资源的浪费,我们可以单独将最后一个warp展开运行

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<math.h>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[128], int b[128]) {
	__shared__ int sdata[100];
	int idx = threadIdx.x;
	int x = blockIdx.x * blockDim.x + threadIdx.x * 2;
	sdata[idx] = a[x] + a[x + 1];
	__syncthreads();
	for (int s = blockDim.x / 2; s > 32; s /= 2) {
		if (idx < s) {
			sdata[idx] += sdata[idx + s];
		}
		__syncthreads();
	}
	if (idx < 32) {
		sdata[idx] += sdata[idx + 32];
		sdata[idx] += sdata[idx + 16];
		sdata[idx] += sdata[idx + 8];
		sdata[idx] += sdata[idx + 4];
		sdata[idx] += sdata[idx + 2];
		sdata[idx] += sdata[idx + 1];
	}
	if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[128] = { 0 };
	int* da, * db;
	int hb[128];
	for (int i = 0; i < 100; i++)
		ha[i] = i + 1;

	cudaMalloc((void**)&da, sizeof(int) * 128);
	cudaMalloc((void**)&db, sizeof(int) * 128);
	cudaMemcpy(da, ha, sizeof(int) * 128, cudaMemcpyHostToDevice);
	dim3 Block(128);
	jia << <1, Block >> > (da, db);
	cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
	cout << hb[0] << endl;
	cudaFree(da);
	cudaFree(db);
}

优化五

根据线程数量必须是2的n次幂,我们可以在同一个block里面将for循环完全拆除,从而加快运行速率

#include<cuda_runtime_api.h>
#include<cuda_runtime.h>
#include<device_launch_parameters.h>
#include<iostream>
#include<math.h>
#include<device_functions.h>
using namespace std;
__global__ void jia(int a[128], int b[128]) {
	__shared__ int sdata[100];
	int idx = threadIdx.x;
	int x = blockIdx.x * blockDim.x + threadIdx.x * 2;
	sdata[idx] = a[x] + a[x + 1];
	__syncthreads();
	if (idx < 32) {
		sdata[idx] += sdata[idx + 32];
		sdata[idx] += sdata[idx + 16];
		sdata[idx] += sdata[idx + 8];
		sdata[idx] += sdata[idx + 4];
		sdata[idx] += sdata[idx + 2];
		sdata[idx] += sdata[idx + 1];
	}
	if (idx == 0)b[0] = sdata[0];
}
int main() {
	int ha[128] = { 0 };
	int* da, * db;
	int hb[128];
	for (int i = 0; i < 100; i++)
		ha[i] = i + 1;

	cudaMalloc((void**)&da, sizeof(int) * 128);
	cudaMalloc((void**)&db, sizeof(int) * 128);
	cudaMemcpy(da, ha, sizeof(int) * 128, cudaMemcpyHostToDevice);
	dim3 Block(128);
	jia << <1, Block >> > (da, db);
	cudaMemcpy(hb, db, sizeof(int), cudaMemcpyDeviceToHost);
	cout << hb[0] << endl;
	cudaFree(da);
	cudaFree(db);
}
  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
智慧校园整体解决方案是响应国家教育信息化政策,结合教育改革和技术创新的产物。该方案以物联网、大数据、人工智能和移动互联技术为基础,旨在打造一个安全、高效、互动且环保的教育环境。方案强调从数字化校园向智慧校园的转变,通过自动数据采集、智能分析和按需服务,实现校园业务的智能化管理。 方案的总体设计原则包括应用至上、分层设计和互联互通,确保系统能够满足不同用户角色的需求,并实现数据和资源的整合与共享。框架设计涵盖了校园安全、管理、教学、环境等多个方面,构建了一个全面的校园应用生态系统。这包括智慧安全系统、校园身份识别、智能排课及选课系统、智慧学习系统、精品录播教室方案等,以支持个性化学习和教学评估。 建设内容突出了智慧安全和智慧管理的重要性。智慧安全管理通过分布式录播系统和紧急预案一键启动功能,增强校园安全预警和事件响应能力。智慧管理系统则利用物联网技术,实现人员和设备的智能管理,提高校园运营效率。 智慧教学部分,方案提供了智慧学习系统和精品录播教室方案,支持专业级学习硬件和智能化网络管理,促进个性化学习和教学资源的高效利用。同时,教学质量评估中心和资源应用平台的建设,旨在提升教学评估的科学性和教育资源的共享性。 智慧环境建设则侧重于基于物联网的设备管理,通过智慧教室管理系统实现教室环境的智能控制和能效管理,打造绿色、节能的校园环境。电子班牌和校园信息发布系统的建设,将作为智慧校园的核心和入口,提供教务、一卡通、图书馆等系统的集成信息。 总体而言,智慧校园整体解决方案通过集成先进技术,不仅提升了校园的信息化水平,而且优化了教学和管理流程,为学生、教师和家长提供了更加便捷、个性化的教育体验。
经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。 经导师精心指导并认可、获 98 分的毕业设计项目!【项目资源】:微信小程序。【项目说明】:聚焦计算机相关专业毕设及实战操练,可作课程设计与期末大作业,含全部源码,能直用于毕设,经严格调试,运行有保障!【项目服务】:有任何使用上的问题,欢迎随时与博主沟通,博主会及时解答。
智慧校园整体解决方案是响应国家教育信息化政策,结合教育改革和技术创新的产物。该方案以物联网、大数据、人工智能和移动互联技术为基础,旨在打造一个安全、高效、互动且环保的教育环境。方案强调从数字化校园向智慧校园的转变,通过自动数据采集、智能分析和按需服务,实现校园业务的智能化管理。 方案的总体设计原则包括应用至上、分层设计和互联互通,确保系统能够满足不同用户角色的需求,并实现数据和资源的整合与共享。框架设计涵盖了校园安全、管理、教学、环境等多个方面,构建了一个全面的校园应用生态系统。这包括智慧安全系统、校园身份识别、智能排课及选课系统、智慧学习系统、精品录播教室方案等,以支持个性化学习和教学评估。 建设内容突出了智慧安全和智慧管理的重要性。智慧安全管理通过分布式录播系统和紧急预案一键启动功能,增强校园安全预警和事件响应能力。智慧管理系统则利用物联网技术,实现人员和设备的智能管理,提高校园运营效率。 智慧教学部分,方案提供了智慧学习系统和精品录播教室方案,支持专业级学习硬件和智能化网络管理,促进个性化学习和教学资源的高效利用。同时,教学质量评估中心和资源应用平台的建设,旨在提升教学评估的科学性和教育资源的共享性。 智慧环境建设则侧重于基于物联网的设备管理,通过智慧教室管理系统实现教室环境的智能控制和能效管理,打造绿色、节能的校园环境。电子班牌和校园信息发布系统的建设,将作为智慧校园的核心和入口,提供教务、一卡通、图书馆等系统的集成信息。 总体而言,智慧校园整体解决方案通过集成先进技术,不仅提升了校园的信息化水平,而且优化了教学和管理流程,为学生、教师和家长提供了更加便捷、个性化的教育体验。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值