OpenMP并行程序设计

2019-04-02 08:43

OpenMP并行程序设计(一)

OpenMP是一个支持共享存储并行设计的库,特别适宜多核CPU上的并行程序设计。今天在双核CPU机器上试了一下OpenMP并行程序设计,发现效率方面超出想象,因此写出来分享给大家。

在VC8.0中项目的属性对话框中,左边框里的“配置属性”下的“C/C++”下的“语言”页里,将OpenMP支持改为“是/(OpenMP)”就可以支持OpenMP了。 先看一个简单的使用了OpenMP程序 int main(int argc, char* argv[]) {

#pragma omp parallel for

for (int i = 0; i < 10; i++ ) {

printf(\, i); } return 0; }

这个程序执行后打印出以下结果: i = 0 i = 5 i = 1 i = 6 i = 2 i = 7 i = 3 i = 8 i = 4 i = 9

可见for 循环语句中的内容被并行执行了。(每次运行的打印结果可能会有区别) 这里要说明一下,#pragma omp parallel for 这条语句是用来指定后面的for循环语句变成并行执行的,当然for循环里的内容必须满足可以并行执行,即每次循环互不相干,后一次循环不依赖于前面的循环。

有关#pragma omp parallel for 这条语句的具体含义及相关OpenMP指令和函数的介绍暂时先放一放,只要知道这条语句会将后面的for循环里的内容变成并行执行就行了。 将for循环里的语句变成并行执行后效率会不会提高呢,我想这是我们最关心的内容了。

下面就写一个简单的测试程序来测试一下: void test() {

int a = 0;

clock_t t1 = clock();

for (int i = 0; i < 100000000; i++) {

a = i+1; }

clock_t t2 = clock(); printf(\, t2-t1); }

int main(int argc, char* argv[]) {

clock_t t1 = clock(); #pragma omp parallel for

for ( int j = 0; j < 2; j++ ){ test(); }

clock_t t2 = clock();

printf(\, t2-t1); test(); return 0; }

在test()函数中,执行了1亿次循环,主要是用来执行一个长时间的操作。

在main()函数里,先在一个循环里调用test()函数,只循环2次,我们还是看一下在双核CPU上的运行结果吧: Time = 297 Time = 297 Total time = 297 Time = 297

可以看到在for循环里的两次test()函数调用都花费了297ms, 但是打印出的总时间却只

花费了297ms,后面那个单独执行的test()函数花费的时间也是297ms,可见使用并行计算后效率提高了整整一倍。

下一篇文章中将介绍OpenMP的具体指令和用法。

OpenMP并行程序设计(二)

1、fork/join并行执行模式的概念

OpenMP是一个编译器指令和库函数的集合,主要是为共享式存储计算机上的并行程序设计使用的。

前面一篇文章中已经试用了OpenMP的一个Parallel for指令。从上篇文章中我们也可以发现OpenMP并行执行的程序要全部结束后才能执行后面的非并行部分的代码。这就是标准的并行模式fork/join式并行模式,共享存储式并行程序就是使用fork/join式并行的。

标准并行模式执行代码的基本思想是,程序开始时只有一个主线程,程序中的串行部分都由主线程执行,并行的部分是通过派生其他线程来执行,但是如果并行部分没有结束时是不会执行串行部分的,如上一篇文章中的以下代码: int main(int argc, char* argv[]) {

clock_t t1 = clock(); #pragma omp parallel for

for ( int j = 0; j < 2; j++ ){ test(); }

clock_t t2 = clock();

printf(\, t2-t1);

test(); return 0; }

在没有执行完for循环中的代码之前,后面的clock_t t2 = clock();这行代码是不会执行的,如果和调用线程创建函数相比,它相当于先创建线程,并等待线程执行完,所以这种并行模式中在主线程里创建的线程并没有和主线程并行运行。 2、OpenMP指令和库函数介绍

下面来介绍OpenMP的基本指令和常用指令的用法, 在C/C++中,OpenMP指令使用的格式为

#pragma omp 指令 [子句[子句]?]

前面提到的parallel for就是一条指令,有些书中也将OpenMP的“指令”叫做“编译指导语句”,后面的子句是可选的。例如: #pragma omp parallel private(i, j) parallel 就是指令, private是子句

为叙述方便把包含#pragma和OpenMP指令的一行叫做语句,如上面那行叫parallel语句。

OpenMP的指令有以下一些:

parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行

for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性。

parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行。

sections,用在可能会被并行执行的代码段之前

parallel sections,parallel和sections两个语句的结合 critical,用在一段代码临界区之前

single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行。 flush,

barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行。 atomic,用于指定一块内存区域被制动更新 master,用于指定一段代码块由主线程执行 ordered, 用于指定并行区域的循环按顺序执行 threadprivate, 用于指定一个变量是线程私有的。

OpenMP除上述指令外,还有一些库函数,下面列出几个常用的库函数: omp_get_num_procs, 返回运行本线程的多处理机的处理器个数。 omp_get_num_threads, 返回当前并行区域中的活动线程个数。 omp_get_thread_num, 返回线程号

omp_set_num_threads, 设置并行执行代码时的线程个数

omp_init_lock, 初始化一个简单锁 omp_set_lock, 上锁操作

omp_unset_lock, 解锁操作,要和omp_set_lock函数配对使用。 omp_destroy_lock, omp_init_lock函数的配对操作函数,关闭一个锁

OpenMP的子句有以下一些

private, 指定每个线程都有它自己的变量私有副本。

firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值。

lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量。

reduce,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算。

nowait,忽略指定中暗含的等待 num_threads,指定线程的个数 schedule,指定如何调度for循环迭代

shared,指定一个或多个变量为多个线程间的共享变量 ordered,用来指定for循环的执行要按顺序执行

copyprivate,用于single指令中的指定变量为多个线程的共享变量

copyin,用来指定一个threadprivate的变量的值要用主线程的值进行初始化。 default,用来指定并行处理区域内的变量的使用方式,缺省是shared 3、parallel 指令的用法

parallel 是用来构造一个并行块的,也可以使用其他指令如for、sections等和它配合使用。

在C/C++中,parallel的使用方法如下:

#pragma omp parallel [for | sections] [子句[子句]?] {

//代码 }

parallel语句后面要跟一个大括号对将要并行执行的代码括起来。 void main(int argc, char *argv[]) {

#pragma omp parallel {

printf(“Hello, World!\\n”);

} }

执行以上代码将会打印出以下结果 Hello, World! Hello, World!


OpenMP并行程序设计.doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:对外经济贸易大学法学考研理论结合实践的复习方法

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: