自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 CyberC 2020 征稿: 第12届网络分布式计算与知识发现国际会议

The 12th Int. Conference on Cyber-Enabled Distributed Computing and Knowledge DiscoveryChongqing, China, September 17 - 19, 2020Web: www.Cyberc.orgPublication: IEEE (EI & Explore), Journal o...

2020-02-10 09:33:03 945

转载 概率算法中的Monte carlo算法

最近在和同学讨论研究Six Sigma(六西格玛)软件开发方法及CMMI相关问题时,遇到了需要使用Monte-Carlo算法模拟分布未知的多元一次概率密度分布问题。于是花了几天时间,通过查询相关文献资料,深入研究了一下Monte-Carlo算法,并以实际应用为背景进行了一些实验。      在研究和实验过程中,发现Monte-Carlo算法是一个非常有用的算法,在许多实际问题中,都有用武之地。

2017-10-16 10:39:05 5127

转载 KNL+FPGA是加速深度学习的黄金搭档

【IT168 资讯】8月17日,在美国旧金山举行的英特尔信息技术峰会(Intel Developer Forum,简称IDF)上,浪潮首席科学家胡雷钧进行了先进技术报告演讲,他结合当前深度学习应用特点和先进计算技术架构进行分析,认为KNL+FPGA是加速深度学习的黄金搭档。  深度学习在人脸识别、语音识别、精准医疗以及无人驾驶等领域被广泛的应用,近年来在高性能计算技术的支持下,其发

2017-09-22 18:12:05 701

原创 linux命令

1.删除文件或目录的 rm 命令 实例:rm 文件名(会先询问是否删除)            rm -f  文件名(直接强行删除文件)    rm -r  目录1(强制删除1,以及1目录中的所有的档案)

2017-09-22 14:39:23 188

原创 jacobi迭代法求解线性方程组

首先将方程组中的系数矩阵A分解成三部分,即:A = L+D+U,如图1所示,其中D为对角阵,L为下三角矩阵,U为上三角矩阵。之后确定迭代格式,X^(k+1) = B*X^(k) +f ,(这里^表示的是上标,括号内数字即迭代次数),如图2所示,其中B称为迭代矩阵,雅克比迭代法中一般记为J。(k = 0,1,......)再选取初始迭代向量X^(0),开始逐次迭代。设Ax

2017-09-07 09:31:24 5785

转载 【MPI0】学习资料搜集

一个不错的英文的MPI教程:http://mpitutorial.com中科大的MPI学习资料:http://micro.ustc.edu.cn/Linux/MPI/清华大学的并行计算资料:http://202.197.191.206:8080/06/#

2017-09-06 20:20:51 264

转载 【MPI学习7】MPI并行程序设计模式:MPI的进程组和通信域

基于都志辉老师MPI编程书中的第15章内容。通信域是MPI的重要概念:MPI的通信在通信域的控制和维护下进行 → 所有MPI通信任务都直接或间接用到通信域这一参数 → 对通信域的重组和划分可以方便实现任务的划分 (1)通信域(communicator)是一个综合的通信概念。其包括上下文(context),进程组(group),虚拟处理器拓扑(topology)。其中进程组是比较重要的概

2017-09-06 20:19:45 926

转载 【MPI学习6】MPI并行程序设计模式:具有不连续数据发送的MPI程序设计

基于都志辉老师《MPI并行程序设计模式》第14章内容。前面接触到的MPI发送的数据类型都是连续型的数据。非连续类型的数据,MPI也可以发送,但是需要预先处理,大概有两类方法:(1)用户自定义新的数据类型,又称派生类型(类似定义结构体类型,但是比结构体复杂,需要考虑两方面的内容)(2)数据的打包和解包(将不连续的数据给压缩打包到连续的区域,然后再发送;接受到打包数据后,先解包再使用)

2017-09-06 20:18:53 342

转载 【MPI学习5】MPI并行程序设计模式:组通信MPI程序设计

相关章节:第13章组通信MPI程序设计。 MPI组通信与点到点通信的一个重要区别就是:组通信需要特定组内所有成员参与,而点对点通信只涉及到发送方和接收方。由于需要组内所有成员参与,因此也是一种比较复杂的通信方式。程序员在设计组通信语句的时候,需要同时考虑两点:a. 程序运行起来之后,当前正在运行的进程的行为方式b. 将组通信作为一个整体,考虑所有进程的行为方式 (1)概

2017-09-06 20:18:03 858

转载 【MPI学习4】MPI并行程序设计模式:非阻塞通信MPI程序设计

这一章讲了MPI非阻塞通信的原理和一些函数接口,最后再用非阻塞通信方式实现Jacobi迭代,记录学习中的一些知识。 (1)阻塞通信与非阻塞通信阻塞通信调用时,整个程序只能执行通信相关的内容,而无法执行计算相关的内容;非阻塞调用的初衷是尽量让通信和计算重叠进行,提高程序整体执行效率。整体对比见下图: (2)非阻塞通信的要素非阻塞通信调用返回意味着通信开始启动;而非

2017-09-06 20:16:44 508

转载 【MPI学习3】MPI并行程序设计模式:不同通信模式MPI并行程序的设计

学习了MPI四种通信模式 及其函数用法:(1)标准通信模式:MPI_SEND(2)缓存通信模式:MPI_BSEND(3)同步通信模式:MPI_SSEND(4)就绪通信模式:MPI_RSEND四种通信模式的区别都在消息发送端,而消息接收端的操作都是MPI_RECV。 1.标准通信模式原理图如下标准通信模式由MPI决定是否用缓存。如果MPI决定缓存将

2017-09-06 20:15:35 533

转载 【MPI学习2】MPI并行程序设计模式:对等模式 & 主从模式

这里的内容主要是都志辉老师《高性能计算之并行编程技术——MPI并行程序设计》书上有一些代码是FORTAN的,我在学习的过程中,将其都转换成C的代码,便于统一记录。 这章内容分为两个部分:MPI对等模式程序例子 & MPI主从模式程序例子1. 对等模式MPI程序设计1.1 问题背景这部分以Jacobi迭代为具体问题,列举了三个求解Jacobi迭代问题的MPI对等模式程

2017-09-06 20:14:08 1515

转载 【MPI学习1】简单MPI程序示例

【MPI学习1】简单MPI程序示例有了apue的基础,再看mpi程序多进程通信就稍微容易了一些,以下几个简单程序来自都志辉老师的那本MPI的书的第七章。现在ubuntu上配置了一下mpich的环境:http://www.cnblogs.com/liyanwei/archive/2010/04/26/1721142.html注意,为了编译运行方便,在~/.bashrc文件中添

2017-09-06 14:37:22 1318

转载 内存中堆和栈的区别

一、预备知识—程序的内存分配    一个由C/C++编译的程序占用的内存分为以下几个部分    1、栈区(stack)—   由编译器自动分配释放   ,存放函数的参数值,局部变量的值等。其    操作方式类似于数据结构中的栈。    2、堆区(heap)   —   一般由程序员分配释放,   若程序员不释放,程序结束时可能由OS回    收   。注意它与数据结构中的堆是两

2017-03-29 16:38:55 439

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除