利用AVX、OpenMP进行矩阵乘加速

初学优化,学疏才浅,还请斧正

矩阵乘:(必须满足A矩阵的列数等于B矩阵的行数

运算方法:A矩阵中每一行中的数字乘以B矩阵中对应的的每一列的数字,把结果相加起来在这里插入图片描述由上述原理可将处理过程描绘为C语言代码:

#define N 9
float A[N][N],B[N][N],C[N][N];//定义N*N的矩阵A,B,C

for(int i=0;i<N;i++)
	for(int j=0;j<N;j++)
	{
		A[i][j]=(float)rand()/10000;//随机数初始化A、B矩阵
		B[i][j]=(float)rand()/10000;
		C[i][j]=0;//初始化C矩阵
	}

对A、B矩阵进行计算,结果放入C矩阵中:

for(int i=0;i<N;i++)
	for(int j=0;j<N;j++for(int k=0;k<N;k++)
			C[i][j] += A[i][k]*B[k][j]; 

这样的代码最后计算结果是正确的,但是数据量较大的时候,运算速度就会非常缓慢。

在存储访问结构中,行优先存储访问速度是优于列优先的,但B矩阵的访问是以列优先读取的,所以可以考虑将B矩阵存储改为行优先存储。

B[j][i] = (float)rand()/1000;

在这里插入图片描述

这样计算就是A的每一行与其B的对应行相乘并相加。
处理代码也要发生相应的改变

 for(int i=0;i<N;i++)
 	for(int j=0;j<N;j++for(int k=0;k<N;k++)
 			C[i][j] += A[i][k]*B[j][k]; //改变在这里

这里三个for循环,时间复杂度为O(n^3)

这里我们先用AVX对内部进行处理

	int k=0, temp = N%8;
	for(;k<N-temp;k+=8)
	{	
		v0 = _mm256_loadu_ps(&a[i][k]);
		v1 = _mm256_loadu_ps(&b[j][k]);
		v2 = _mm256_mul_ps(v0,v1);//同时对8个浮点数进行计算
		c[i][j]+=(v2[0]+v2[1]+v2[2]+v2[3]+v2[4]+v2[5]+v2[6]+v2[7]);//规约
	}
	for(;k<N;k++)
		c[i][j]+=a[i][k]*b[j][k];//对剩余的部分数据进行处理

处理前(N为5000):
在这里插入图片描述

处理后:
在这里插入图片描述

速度得到了很大提升,但是可以看到,我们数据结果出现了误差,这是由于数据量比较大,我们只用的是float类型,造成了精度问题(可以用double类型或者用其他高精度方法解决)。

此时速度还是不够理想,现在就使用OpenMP进行优化了,
三重for循环之间并不存在依赖,可以直接用#pragma omp parallel for进行并行操作

#pragma omp parallel for num_threads(16)
	 for(int i=0;i<N;i++)
	 {
	 	__m256 v0,v1,v2;
	 	for(int j=0;j<N;j++)
	 	{
	 		int k=0,temp = N%8;
	 		for(;k<N-temp;k+=8)
	 		{	
	 			v0 = _mm256_loadu_ps(&a[i][k]);
	 			v1 = _mm256_loadu_ps(&b[j][k]);
	 			v2 = _mm256_mul_ps(v0,v1);
	 			c[i][j]+=(v2[0]+v2[1]+v2[2]+v2[3]+v2[4]+v2[5]+v2[6]+v2[7]);
	 		}
			for(;k<N;k++)
			{
				c[i][j]+=a[i][k]*b[j][k];
			}

处理结果:
在这里插入图片描述

最后开了-O3,最终优化结果:
在这里插入图片描述

附赠MPI+OpenMP+AVX,效果不是很好

#include <immintrin.h>
#include <stdio.h>
#include <time.h>
#include <mpi.h>
#include <algorithm>
#include <cstring>
#define N 5000
using namespace std;
float a[N][N],b[N][N],c[N][N],buffer1[N],buffer2[N];
int main()
{
        int rank,numprocs;
        MPI_Status status;
        MPI_Init(NULL,NULL);
        MPI_Comm_size(MPI_COMM_WORLD,&numprocs);
        MPI_Comm_rank(MPI_COMM_WORLD,&rank);
        if(rank==0)
        {
        	for(int i=0;i<N;i++)
	            for(int j=0;j<N;j++)
	            {
	                    a[i][j]=(float)rand()/1e6;
	                    b[j][i]=(float)rand()/1e6;
	                    c[i][j]=0;
	            }
	        double st = MPI_Wtime();    
//            for(int i=1;i<numprocs;i++)
//                MPI_Send(b,sizeof(b)/sizeof(float),MPI_FLOAT,i,0,MPI_COMM_WORLD);
			MPI_Bcast(b,sizeof(b)/sizeof(float),MPI_FLOAT,0,MPI_COMM_WORLD);
            int num_flag=0;
            while(num_flag<N)
            {
	        	for(int i=0;i < min(N-num_flag,numprocs-1);i++)
	            {
	                    memcpy(buffer1,a[num_flag],sizeof(a[num_flag]));
	                    MPI_Send(buffer1,sizeof(buffer1)/sizeof(float),MPI_FLOAT,i+1,num_flag,MPI_COMM_WORLD);
	                    num_flag++;
	            }
            }
            for(int i=0;i<N;i++)
            {
            		MPI_Recv(buffer2,sizeof(buffer2)/sizeof(float),MPI_FLOAT,MPI_ANY_SOURCE,MPI_ANY_TAG,MPI_COMM_WORLD,&status);
                    int tag = status.MPI_TAG;
                    memcpy(c[tag],buffer2,sizeof(buffer2));
            }
            double ed = MPI_Wtime();
            for(int i=1;i<numprocs;i++)
            {
				MPI_Send(buffer1,sizeof(buffer1)/sizeof(float),MPI_FLOAT,i,N+1,MPI_COMM_WORLD);
			}
            printf("allright!耗时:%lfs\n",ed-st);
			printf("c[0][0] = %f\n",c[0][0]);
        }
        else
        {
        	printf("%d is running\n",rank);
//            MPI_Recv(b,sizeof(b)/sizeof(float),MPI_FLOAT,0,0,MPI_COMM_WORLD,&status);
			MPI_Bcast(b,sizeof(b)/sizeof(float),MPI_FLOAT,0,MPI_COMM_WORLD);
            while(1)
            {
                    MPI_Recv(buffer1,sizeof(buffer1)/sizeof(float),MPI_FLOAT,0,MPI_ANY_TAG,MPI_COMM_WORLD,&status);
                    if(status.MPI_TAG == N+1) break;
					#pragma omp parallel for
                    for(int i = 0; i < N;i++)
                    {		
                    		__m256 v0,v1,v2;
                    		int temp = N%8,j=0;
                            for(;j < N-temp;j+=8)
                            {
                            		v0 = _mm256_loadu_ps(&buffer1[j]);
                            		v1 = _mm256_loadu_ps(&b[i][j]);
                            		v2 = _mm256_mul_ps(v0,v1);
                            		buffer2[i]+=(v2[0]+v2[1]+v2[2]+v2[3]+v2[4]+v2[5]+v2[6]+v2[7]);
//                                    buffer2[i] += buffer1[j] * b[i][j];
                            }
                            for(;j<N;j++)
                            {
									buffer2[i]+=buffer1[j]*b[i][j];
							}
                    }
                    MPI_Send(buffer2,sizeof(buffer2)/sizeof(float),MPI_FLOAT,0,status.MPI_TAG,MPI_COMM_WORLD);
            }
        }
        MPI_Finalize();
        return 0;
}
  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值