共享内存 Shared Memory

转发自cdeveloprLinux 高级编程 - 共享内存 Shared Memory
IPC(进程间通信) 方式:共享内存 Shared Memory的基本原理是:内核开辟一片内存区域,然后多个用户进程可以将这片区域映射到它们自己的地址空间中进行读写。
这种方式速度很快,因为数据不需要在进程之间复制,只要一个进程写入数据,另一个进程就能马上读取数据了,但是读取和写入必须同步

1、共享内存 Shared Memory

1.1、共享内存属性

我们可以在终端中使用ipcs -m查看系统当前开辟的共享内存:

ipcs -m

------ Shared Memory Segments --------
key        shmid      owner      perms      bytes      nattch     status 
0x00000000 104529920  orange     600        2097152    2          dest
0x00000000 688129     orange     600        524288     2          dest
0x00000000 113672194  orange     600        524288     2          dest
...

可以看到列出了共享内存的一些属性:地址,id,拥有者等等。

1.2、共享内存在哪里?

进程可以将共享内存映射到自己的地址空间中,如下:
进程地址空间
可以看到中间有一个内存映射区域,进程把内核的共享内存映射到这个地方,模型如下:
在这里插入图片描述
进程可以通过共享内存的 API 获得内核所管理的共享内存的一份映射,例如直接同步读写自己的映射文件就可以实现进程 A 和 B 之间的通信了,非常简单。

2、共享内存的操作

共享内存使用起来比较简单,但是需要注意必须保持不同进程的读写同步,可以使用信号量或者互斥锁等,但是本篇文章主要介绍共享内存,不会涉及同步相关的操作,下面的例子主要介绍共享内存相关的 API 操作,当你熟悉了基本的用法,在以后学习同步时可以加上同步机制来保证读写正确。

共享内存(SHM)的操作主要分为下面 4 个步骤:

  1. 创建或获取 SHM
  2. 映射 SHM 到进程地址空间
  3. 操作映射后的区域,即读写
  4. 关闭进程地址空间的映射区域

分别来了解这些操作的 API。

2.1、创建:shmget

创建 SHM 调用 shmget

#include <sys/ipc.h>
#include <sys/shm.h>

/*
 * key:SHM 标识
 * size:SHM 大小
 * shmflg:创建或得到的属性,例如 IPC_CREAT
 * return:成功返回 shmid,失败返回 -1,并设置 erron
 */
int shmget(key_t key, size_t size, int shmflg);
2.2、 映射:shmat

shmat将由 shmget 返回的 shmid 标识的 SHM 映射到进程的地址空间:

#include <sys/types.h>
#include <sys/shm.h>

/*
 1. shmid:SHM ID
 2. shmaddr:SHM 内存地址
 3. shmflg:SHM 权限
 4. return:成功返回 SHM 的地址,失败返回 (void *) -1,并设置 erron
 */
void *shmat(int shmid, const void *shmaddr, int shmflg);

其中 shmaddr 参数主要有 2 种情况:

  1. shmaddr = NULL:系统选择一块合适的内存地址作为映射的起始地址
  2. shmaddr != NULL:用户自己地址,但是该地址需要符合一定的条件,详情参考 man shmat.

即:
注册成功,返回ID映射成功,返回地址

2.3、 关闭映射:shmdt

shmdt解除当前进程映射的 SHM:

#include <sys/types.h>
#include <sys/shm.h>

/*
 * shmaddr:已经映射的 SHM 地址
 * return:成功返回 0,失败返回 -1,并设置 erron
 */
int shmdt(const void *shmaddr);

3、例子:write_shm.c,read_shm.c

3.1、write_shm.c

我们先创建一个片 SHM,然后写入内容:

#include <sys/ipc.h> //注册
#include <sys/shm.h> 
#include <sys/types.h> //映射、关闭
#include <string.h>
#include <stdio.h>
#include <stdlib.h>

int main() {
    // 1. 创建 SHM
    int shm_id = shmget(13, 2048, IPC_CREAT | 0666);//注册成功,返回ID
    if (shm_id != -1) {
        // 2. 映射 SHM
        void* shm = shmat(shm_id, NULL, 0);//映射成功,返回地址
        if (shm != (void*)-1) {
            // 3. 写 SHM
            char str[] = "I'm share memory";
            memcpy(shm, str, strlen(str) + 1);
            // 4. 关闭 SHM
            shmdt(shm);
        } else {
            perror("shmat:");
        }
    } else {
        perror("shmget:");
    }
    return 0;
}

3.2、read_shm.c

我们再写一个程序来映射 SHM 并读取其中的内容:

#include <sys/ipc.h>
#include <sys/shm.h>
#include <sys/types.h>
#include <string.h>
#include <stdio.h>
#include <stdlib.h>

int main() { 
    // 1. 获取 SHM
    int shm_id = shmget(13, 2048, IPC_CREAT | 0666);
    
    if (shm_id != -1) {
        // 2. 映射 SHM
        void* shm = shmat(shm_id, NULL, 0);
        if (shm != (void*)-1) {
            // 3. 读取 SHM
            char str[50] = { 0 };
            memcpy(str, shm, strlen("I'm share memory"));
            printf("shm = %s\n", (char *)shm); 
            // 4. 关闭 SHM
            shmdt(shm);
        } else {
            perror("shmat:");
        }
    } else {
        perror("shmget:");
    }
    if (0 == shmctl(shm_id, IPC_RMID, NULL))
        printf("delete shm success.\n");
    return 0;
}
3.3、编译、执行
编译
gcc write_shm.c -o write_shm
gcc read_shm.c -o read_shm
执行
./write_shm
./read_shm
hello world!

成功读取了写进程的写入的数据,虽然不是同步的,但是至少能够获取数据。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: CUDA共享内存是一种特殊的内存类型,它可以在同一个线程块内的线程之间共享数据。这种内存类型的访问速度非常快,因为它是在GPU芯片上的SRAM中实现的。使用共享内存可以有效地减少全局内存的访问,从而提高CUDA程序的性能。共享内存的大小是有限制的,通常为每个线程块的总共享内存大小的一半。因此,在使用共享内存时需要仔细考虑内存的使用情况,以避免内存溢出和性能下降。 ### 回答2: CUDA shared memory是一种专门用于加速GPU并行计算的高速缓存区域。它位于GPU的多个处理核心之间共享,并在同一个线程块中的线程之间交流数据。相比于全局内存,shared memory具有更低的访问延迟和更高的带宽。 shared memory可以通过声明__shared__关键字来定义,并通过静态分配的方式进行初始化。每个线程块都具有自己独立的shared memory空间,其大小在编译时确定,但最大限制为48KB。 shared memory的主要优点是其高带宽和低延迟。由于其位于多个处理核心之间共享,可以实现线程之间的快速数据交换。通过将计算中频繁使用的数据存储在shared memory中,可以减少从全局内存中读取数据所需的时间。这对于那些具有访存限制的算法,如矩阵乘法和图像处理等,非常有用。 使用shared memory还可以避免线程间的数据冗余读取,从而提高整体的并行计算效率。当多个线程需要访问相同的数据时,可以将这些数据存储在shared memory中,以便线程之间进行共享,从而减少了重复的全局内存访问。 但shared memory也有一些限制和需要注意的地方。首先,shared memory的大小是有限的,需要根据具体的算法和硬件限制进行适当调整。其次,由于其共享的特性,需要确保线程之间的数据同步。最后,使用shared memory时需要注意避免bank conflict,即多个线程同时访问同一个shared memory bank造成的资源竞争,从而导致性能下降。 综上所述,CUDA shared memory在GPU并行计算中具有重要的作用。通过使用shared memory,可以有效减少全局内存访问、提高数据交换速度和并行计算效率,从而加速GPU上的并行计算任务。 ### 回答3: CUDA共享内存shared memory)是指在CUDA程序中使用的一种特殊的内存空间。它是GPU上的一块高速、低延迟的内存,被用来在同一个线程块(thread block)中的线程之间进行数据共享。 与全局内存相比,共享内存的访问速度更快,读写延迟更低。这是因为共享内存位于SM(Streaming Multiprocessor)内部,可以直接被SM访问,而全局内存则需要通过PCIe总线与主机内存进行通信。 使用共享内存可以提高应用程序性能的原因之一是避免了全局内存的频繁访问。当多个线程需要读写同一个数据时,如果每个线程都从全局内存中读取/写入,会导致内存带宽饱和,限制了整体性能。而将这些数据缓存在共享内存中,可以减少对全局内存的访问次数,提高内存带宽的利用率。 除此之外,共享内存的另一个重要特性是可以用作线程间的通信机制。在同一个线程块中的线程可以通过共享内存交换数据,而无需利用全局内存作为中介。这使得线程之间的协作变得更加高效和灵活。 然而,共享内存也有一些限制。首先,共享内存的大小是有限的,通常为每个SM的一定容量(如16KB或48KB)。其次,共享内存的生命周期与线程块相同,每个线程块结束后,共享内存中的数据将被销毁。 在编写CUDA程序时,可以使用__shared__关键字来声明共享内存。同时需要注意,合理地使用共享内存,并避免冲突和竞争条件,才能充分发挥共享内存的优势,提高CUDA程序的性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值