OpenMP

http://zh.wikipedia.org/wiki/OpenMP


OpenMP(Open Multi-Processing)是由OpenMP Architecture Review Board牵头提出的,并已被广泛接受的,用于共享内存并行系统的多线程程序设计的一套指导性注释(Compiler Directive)。OpenMP支持的程式語言包括C语言C++Fortran;而支持OpenMP的编译器包括Sun StudioIntel Compiler,以及開放源碼GCCOpen64編譯器。OpenMP提供了对并行算法的高层的抽象描述,程序员通过在原始碼中加入专用的pragma来指明自己的意图,由此编译器可以自动将程序进行并行化,并在必要之处加入同步互斥以及通信。当选择忽略这些pragma,或者编译器不支持OpenMP时,程序又可退化为通常的程序(一般为串行),代码仍然可以正常运作,只是不能利用多线程来加速程序执行。

目录

   [隐藏

[编辑]特色

OpenMP提供的这种对于并行描述的高层抽象降低了并行编程的难度和复杂度,这样程序员可以把更多的精力投入到并行算法本身,而非其具体实现细节。对基于数据分集的多线程程序设计,OpenMP是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行系统配置。线程粒度和负载平衡等是传统多线程程序设计中的难题,但在OpenMP中,OpenMP库从程序员手中接管了部分这两方面的工作。

[编辑]語法

#pragma omp <directive> [clause[[,] clause] ...]

[编辑]例子

在 omp parallel 段內的程序代碼由多線程來執行:

 int main(int argc, char* argv[])
 {
  #pragma omp parallel  
   printf("Hello, world.\n");
 
   return 1;
 }
[编辑]執行結果
% gcc omp.c (由單線程來執行)
% ./a.out
Hello, world.

% gcc -fopenmp omp.c (由多線程來執行)
% ./a.out
Hello, world.
Hello, world.
Hello, world.
Hello, world.

[编辑]環境變量

OpenMP可以使用環境變量 OMP_NUM_THREADS以控制執行線程的數量。

[编辑]例子

% gcc -fopenmp omp.c 
% setenv OMP_NUM_THREADS 2(由2線程來執行)
% ./a.out
Hello, world.
Hello, world.

[编辑]爭議

作为高层抽象,OpenMP并不适合需要复杂的线程间同步和互斥的场合。 OpenMP的另一个缺点是不能在非共享内存系统(如计算机集群)上使用。在这样的系统上,MPI使用较多。


http://baike.baidu.com/view/1687659.htm


OpenMp简介

  OpenMp是由OpenMP Architecture Review Board牵头提出的,并已被广泛接受的,用于 共享内存 并行系统的多线程 程序设计 的一套指导性注释(Compiler Directive)。OpenMP支持的 编程语言 包括C语言、C++和Fortran;而支持OpenMp的 编译器 包括Sun Compiler,GNU Compiler和Intel Compiler等。OpenMp提供了对 并行算法 的高层的抽象描述, 程序员 通过在 源代码 中加入专用的pragma来指明自己的意图,由此 编译器 可以自动将程序进行并行化,并在必要之处加入同步互斥以及通信。当选择忽略这些pragma,或者 编译器 不支持OpenMp时,程序又可退化为通常的程序(一般为 串行 ),代码仍然可以正常运作,只是不能利用多线程来加速程序执行。
  OpenMp提供的这种对于并行描述的高层抽象降低了并行 编程 的难度和复杂度,这样 程序员 可以把更多的精力投入到 并行算法 本身,而非其具体实现细节。对基于数据分集的多线程 程序设计 ,OpenMP是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行 系统配置 。线程粒度和 负载平衡 等是传统多线程 程序设计 中的难题,但在OpenMp中,OpenMp库从 程序员 手中接管了部分这两方面的工作。
  但是,作为高层抽象,OpenMp并不适合需要复杂的线程间同步和互斥的场合。OpenMp的另一个缺点是不能在非 共享内存 系统(如 计算机集群 )上使用。在这样的系统上,MPI使用较多。

编辑本段多执行绪的概念

  OpenMP是作为共享存储标准而问世的。它是为在 多处理机 上编写并行程序而设计的一个应用编程接口。它包括一套编译指导语句和一个用来支持它的函数库。
  目前双核、 四核 的 CPU 当道,而 六核 的CPU也已经面世多时,所以在 多处理机 上编写、运行并行程序会变得相当普遍。
  对于一般单一执行绪(single thread)的程式, 多核心 处理器 并没有办法提升它的处理效能;不过对於 多执行绪 (multi thread)的程式,就可以透过不同的核心同时计算,来达到加速的目的了!简单的例子,以单执行绪的程式来说,一件事做一次要十秒的话,要做十次,都丢给同一颗核心做的话,自然就是 10 秒 * 10 次,也就是 100 秒了;但是以多执行绪的程式来说,它可以把这一件事,分给两颗核心各自做,每颗核心各做 5 次,所以所需要的时间就只需要 50 秒!
  当然, 多执行绪 的程式实际上没这么简单。在工作的切割、结合上,也是要多花时间的,所以在现实中,即使最佳状况,双核心的效能也不会是 1 + 1 = 2 这样的理想化。除此之外,也不是所有工作都是可以切割的!很多工作是有关联性的,这样如果直接切割给不同的处理核心各自去 平行运算 ,出来的结果是肯定有问题的。而且, 多执行绪 的程式在编写、维护上,也都比单一执行绪的程式复杂上不少。
  不过,如果电脑本身是多 处理器 多核心 处理器,或是处理器拥有像 Intel  Hyper-Threading Technology 这类的能在同一个时间处理多个执行绪的功能的话,那把各自独立的工作由单一执行绪改成 多执行绪 ,在执行的效率上,大多还是会有增进的!

编辑本段多执行绪的程式

  写程式的时候该怎么去写多执行绪的程式呢?一般的方法,就是真的利用 thread 的控制,去实际在程式中去产生其他的 thread 来处理。像 POSIX Threads 这套 library,就是用来产生、控制执行绪的函式库。而像 Microsoft VisualStudio 2005 中,也有提供控制 thread 的功能。这种方法,大多就是产生多个 thread,而再由主要的 thread 把工作拆开,分给各 thread 去运算,最后再由主要的 thread 回收结果、整合。
  但是,实际上要去控制 thread 是满麻烦的~在程式的编写上,也会复杂不少;而如果我们只是想要把一些简单的回圈平行化处理,用 thread library 来控制,实在有点杀鸡用牛刀的感觉。这时候,用 Open MP 就简单多了!OpenMP 是一种能透过高阶指令,很简单地将程式平行化、 多执行绪 化的 API;在最简单的情形,甚至可以只加一行指令,就可以将回圈内的程式平行化处理了!
  --------------------------------------------------------------------------------

编辑本段OpenMP 的基本使用

  要在 Visual C++ 2005 中使用OpenMP其实不难,只要将 Project 的Properties中C/C++里Language的OpenMP Support开启(参数为 /openmp),就可以让VC++2005 在编译时支持OpenMP 的语法了;而在编写使用OpenMP 的程序时,则需要先include OpenMP的头文件:omp.h。
  而要将 for 回圈平行化处理,该怎么做呢?非常简单,只要在前面加上一行
  #pragma omp parallel for
  就够了!
  也可以实际用一段简单的程序,来弄清楚它的运作方式。
   #include <STDIO.H>
  #include <STDLIB.H>
   void Test( int n) {
   for ( int i = 0; i < 10000; ++i)
  {
  //do nothing, just waste time
  }
  printf("%d, ", n);
  }
   int main( int argc,  char * argv[])
  {
   for ( int i = 0; i < 10; ++i)
  Test(i);
  system("pause");
  }
  上面的程序,在 main() 是一个很简单的回圈,跑十次,每次都会调用Test()这个函数,并把是回圈的执行次数(i)传进Test() 并打印出来。想当然,它的结果会是:
  0, 1, 2, 3, 4, 5, 6, 7, 8, 9,
  而如果想利用 OpenMP把 main() 里面的回圈平行化处理呢?只需要修改成下面的样子:
   #include <omp.h>
  #include <stdio.h>
  #include <stdlib.h>
   void Test ( int n) {
   for ( int i = 0; i < 10000; ++i) {
  //do nothing, just waste time
  }
  printf("%d, ", n);
  }
   int main( int argc,  char * argv[]) {
   #pragma omp parallel for
   for (int i = 0; i < 10; ++i)
  Test( i );
  system("pause");
  }
  够简单吧?重头到尾,只加了两行!而执行后,可以发现结果也变了!
  0, 5, 1, 6, 2, 7, 3, 8, 4, 9,
  可以从结果很明显的发现,他没有照着0到9的顺序跑了!而上面的顺序怎么来的?其实很简单,OpenMP只是把回圈 0 - 9 共十个步骤,拆成 0 - 4, 5 - 9 两部份,丢给不同的执行绪去跑,所以数字才会出现这样交错性的输出~
  而要怎么确定真的有跑 多执行绪 呢?如果本来有多 处理器 多核心 处理器或有 Hyper Thread 的话,一个单执行绪程序,最多只会把一颗核心的使用量吃完;像比如说在 Pentium 4 HT 上跑,单一执行绪的程序,在工作管理员中看到的 CPU  使用率 最多就是 50%。而利用 OpenMP 把回圈进行平行化处理后,就可以在执行回圈时,把两颗核心的 CPU 都榨光了!也就是CPU  使用率 是100%。


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值