一、MPP上用类SPMD模式实现作业并行的方法(论文文献综述)
王路[1](2019)在《电大尺寸舰船尾迹电磁散射特性及并行加速算法研究》文中认为海面舰船尾迹电磁散射特性研究一直以来都是国内外学者研究的热门课题,其在海面舰船目标识别、海洋环境监测以及国防军事活动等领域有着十分重要的作用。随着隐身技术的发展,对海面运动舰船的直接探测变得越来越困难,但是舰船产生的尾迹存在时间较长而且无法消除,通过对舰船尾迹进行研究来获得舰船的尺寸、航向、航速等具体参数已成为探测舰船的一种重要方式。舰船产生的尾迹主要有四种,分别为Kelvin尾迹、湍流尾迹、内波尾迹以及窄V尾迹。由于几何模型的差异,针对不同类型的舰船尾迹进行研究时,使用的方法也会有所不同。通过分析不同类型的舰船尾迹电磁散射特性,能够为海面舰船目标的探测和追踪提供技术支撑。随着计算机技术的迅猛发展,为了提高电磁散射计算的效率以及计算机资源利用率,在对舰船尾迹进行散射计算时,对程序进行并行加速处理也显得尤为重要。小斜率近似方法在计算大区域高频段条件下尾迹的散射特性时非常耗时,通过使用并行加速技术可以启动多个进程或线程来进行计算,从而提高计算效率。本文的主要工作内容如下:1.分析了几种典型的海谱模型,如PM谱、A.K.Fung谱、Elfouhaily谱。利用蒙特卡罗方法模拟得到二维粗糙海面,并对不同风速和风向下的海面进行对比分析。随后建立Kelvin尾迹模型,并将其与海面模型进行复合,得到不同参数下的含Kelvin尾迹海面的几何模型。2.重点研究了小斜率近似方法,并将锥形波引入到小斜率近似模型中,避免粗糙面端点处产生的边缘截断效应。对比了锥形波入射下的一阶以及二阶小斜率近似计算粗糙海面散射系数的结果,并研究了电大尺寸海面的电磁散射特性以及含舰船尾迹海面的全极化电磁散射特性。3.根据流体力学理论以及CFD软件来研究舰船湍流尾迹模型。首先利用经验公式建立湍流尾迹轮廓模型,然后在此基础上结合CFD软件仿真实现湍流模型,并对湍流流场进行了分析,最后在建立的湍流尾迹模型基础上研究了湍流尾迹的电磁散射特性。4.应用现在发展迅速的计算机并行技术,即MPI和OpenMP并行加速技术对文中Kelvin尾迹的电磁散射计算程序进行并行加速处理。通过并行处理减少了仿真时间,提高了计算效率,从而满足电大尺寸舰船尾迹电磁仿真需求,同时也为复杂海洋环境下舰船的探测和追踪提供了技术支持。
于洪彬[2](2017)在《一种网络化测试系统中的并行数据处理架构的实现》文中研究说明网络化测试以独特的分布式架构在武器装备测试、核爆炸试验、航空航天测试,钢铁、化工、石油等工厂自动化中有着广泛的应用。实时性是网络化测试系统的主要问题之一。除了采用高性能测试仪器和高速通信网络外,测试数据的处理是影响系统实时性的关键。针对目前使用较多的集中式数据处理方式下可能存在的网络传输延迟、数据处理时效性差的问题,本文提出了一种适于网络化测试系统的并行数据处理架构,存在着进一步提高系统实时性的可能。该研究可看作是并行计算、集群计算在测试领域的拓展。在深入分析了多种计算模式、计算平台构建方案及隔离技术的基础上,结合网络化测试系统结构特点,设计了一种双层资源管理调度模型:通过PBS在系统层进行局域网络仪器资源的管理,用户通过系统的中心——主控计算机进行包含了资源需求和如何使用这些资源的命令作业脚本的提交,并配置作业调度策略,使系统给出物理节点的运行建议。在仪器节点上,针对嵌入式节点多核、多内存节点的应用环境,基于Linux系统的Cgroups内核特性构建了资源容器,即计算任务可以以特定的CPU时间比率和内存限制,在特定的CPU、内存节点上进行运行。构建了适合仪器环境的并行运算平台,选取适于高性能计算的消息传递模型MPI,使用其开源实现MPICH配合并行进程管理器Hydra,在网络一系列网络配置的基础上,构建并行程序的调试、运行环境。分析并行算法的一般开发策略,按照数据分解的方式,以串行FFT算法为基础实现了FFT算法的并行化。在并行FFT算法的基础上,利用MPI标准提供的通信支持,开发了并行FFT数据处理应用程序。实验结果表明,可成功实现从顶层作业脚本编写、提交,系统给出运行仪器节点建议,并行FFT程序在建议节点上运行,并将计算进程纳入资源容器进行执行等功能。性能参数分析表明,通信开销是影响并行数据处理性能的主要因素,是进一步提高系统实时性的关键。
刘谷[3](2013)在《可重构众核流处理器上的编译与程序优化技术》文中认为半导体工艺的持续进步和流编程模型的提出是推动众核流处理器体系结构向前发展的两个重要因素。为了充分利用摩尔定律发展带来的丰富廉价的晶体管资源,片上多处理器已经成为工业界所接受的新一代处理器体系结构的解决方案之一。另一方面,流编程模型的提出为解决应用程序并行性表示和开发提供了有利的工具,业已成为程序并行化的一般方法。但是流应用程序本身的运行时特性对处理器资源的灵活可配置提出了新的要求。一方面,不同程序对于计算,存储和控制的硬件资源需求是千差万别的;另一方面,有的程序对于硬件资源的需求还表现出阶段性特征,不同阶段所需的硬件资源也不尽相同。为了解决这一问题,近年来可重构众核处理器体系结构受到广泛关注,期望以同构的轻量级物理核来构建不同粒度的逻辑处理器,自适应地调整硬件资源,最大化串行程序的性能。我们基于以上认识,提出了可重构的众核流处理器体系结构TPA-S,旨在为流应用程序提供片上资源灵活可重构的硬件衬底。本文围绕这一体系结构,研究了以CUDA为代表的流编程模型在TPA-S上的编译和程序优化技术,分别从可重构流处理器的执行模型,指令集扩展,编译系统设计,以及程序优化技术等方面展开研究。主要的研究内容包括:(1)研究流编程模型与可重构流体系结构的执行模型,探索流应用程序在可重构流处理器TPA-S上的映射方案。流编程模型的实质在于控制和计算的分离:流程序中的计算密集部分以核心函数的形式被抽取出来,使用多个计算线程来开发数据级并行性;而控制线程专注于计算之外的控制流程序,为核心函数组织数据以及开发生产者-消费者局部性。我们设计了主从式和分阶段式两种程序映射方案,分别以异步和同步的方式将计算线程和控制线程映射到TPA-S的多个逻辑处理器上。另外,我们还提出了单一线程和组合线程这两种核心函数的组织方式,在单线程性能和系统吞吐率之间寻求最佳平衡点。(2)研究流编程模型对TPA-S指令集体系结构产生的设计需求,提出扩展的类数据流EDGE指令集DISC-S。TPA-S流处理器基于显式数据流图执行(EDGE)指令集,将程序的每个线程组织为原子执行和提交的超块序列,在超块内部按照类数据流方式执行。EDGE指令集中特殊的目标域编码方式是TPA-S处理器实现物理核可重构的基础之一。然而流编程模型为TPA-S微结构带来了一些不包括在EDGE指令集中的新特性,例如:多个计算线程需要依靠只读的特殊寄存器来快速地获取线程索引信息;计算线程需要访问软件管理的片上共享存储器数据;另外,多个线程之间需要实现高效的栅栏同步机制。DISC-S扩展指令集针对以上新特性,增加了对特殊寄存器读写,软件管理的片上共享存储层次以及线程间同步的指令支持,为实现流编程模型的映射带来了方便。(3)设计并实现面向CUDA编程语言的TPA-S编译器系统。本文基于NVCC编译框架将编译器系统分为核心级与流级两条编译链。我们参考scale编译器设计了核心级编译器Ptx2EDGE,将PTX汇编语言形式的计算线程源代码程序编译成DISC-S扩展指令集的二进制目标代码。在流级,我们实现了CUDA C语法扩展和API函数接口以及运行时库的移植,并复用scale串行编译器产生控制线程代码。编译器系统设计的主要工作由一系列编译模块与工具软件的代码实现组成,包括PTX和CUDA语法的前端识别,中间表示形式转换,超块生成和优化,资源分配与指令调度,汇编器与链接器等。另外,为了实现CUDA控制线程中设备管理,线程管理,执行控制和存储器管理等功能模块,我们移植了CUDA运行时库并实现了软件运行时系统Mpsim。编译系统的正确性和执行效率通过实验在一组基准测试程序上进行了验证与评测。(4)研究了不规则程序在流处理器上的程序优化方法。本文主要分析了众核流处理器上不规则程序的性能瓶颈问题,并对GPU平台上的图广度优先搜索算法进行了实例研究,希望找到不规则程序在流处理器上进行性能调优的一般性方法。我们针对不规则程序中复杂多变的无组织数据并行性提出了基于并行性反馈的FlexBFS高效实现方法,并针对不规则访存带来的动态队列访存效率问题以及不规则输入引起的负载平衡问题,分别提出了相应的程序优化技术。这些实现方法和优化技术都能够被应用到其它的不规则程序当中。本文获得了以下重要认识:(1)流编程模型能够驱动指令集体系结构的设计,ISA需要反映编程模型带来的新特性;(2)流程序的多线程映射需要软件运行时库的协同工作,在将来的操作系统中可以增加对流编程模型的支持;(3)编译系统设计环节需要使用合适的编程模式和软件工程方法来增强程序的模块化与可读性,例如访问者模式;(4)不规则程序的并行性开发需要准确的并行性度量,使用在线剖析技术能够指导计算资源的合理划分。
刘志强[4](2011)在《面向多核的系统级MPI通信优化关键技术研究》文中研究表明消息传递接口(Message Passing Interface,简称MPI)自20世纪90年代以来一直是高性能计算(High Performance Computing,简称HPC)领域并行程序开发的事实标准。在基于MPI编写的并行程序中,MPI通信性能通常对程序整体性能起着关键作用,优化MPI通信具有重要意义。近年来,在多核技术高速发展的背景下,MPI通信亟待针对多核系统特点进行优化。然而,现有优化工作主要停留在基于进程MPI的通信技术,普遍存在处理开销大、访存需求高等不足,限制了通信性能进一步提高。本文针对多核系统诸多特点和现有优化方法不足,从基于线程MPI的通信技术方向入手,系统研究了多核系统MPI通信优化的关键技术,探索了共享内存系统上更高效的消息传递通信接口。取得的主要成果如下:1、面向多核系统,提出了一种高效线程MPI支撑软件技术——MPI通信加速器(MPI Communication Accelerator,简称MPIActor)。MPIActor通过自身专门设计的接口聚合技术在传统进程MPI支撑环境的基础上建立线程MPI支撑环境。相比传统MPI支撑软件的开发方法,采用MPIActor技术构建线程MPI支撑软件的开发工作量小,且MPIActor应用更灵活,能横向支持符合MPI-2标准的传统进程MPI支撑软件。实验采用双路Nehalem-EP处理器系统上的OSULATENCY基准程序进行测试,结果表明传输8K至2M字节长度消息时,加入MPIActor的MVAPICH2 1.4在处理器内通信性能提升了37%以上,最高可达114%;处理器间通信性能提升30%以上,最高可达144%;而对加入MPIActor的Open MPI 1.5测试结果也表明,处理器内通信性能能提升48%以上,最高可达106%,处理器间则能提高46%以上,最高可达98%。2、针对多核系统上的集合通信优化,基于MPIActor提出了一套新的分级集合通信算法框架(MPIActor Hierachical Collective Algorithm Framework,简称MAHCAF)和一组高效的基于线程MPI的节点内集合通信算法。MAHCAF采用模板方法设计分级集合通信算法,将节点内和节点间集合通信过程作为模板的可扩展步骤,并将它们通过流水化并行方法组织,能够充分发挥子集合通信过程间的并发性。基于线程MPI设计的节点内集合通信算法能够充分利用共享内存系统的优势实现通信过程,相比传统基于进程MPI的集合通信算法处理代价小,访存需求低。Nehalem集群系统上的IMB实验表明:与MVPAICH2 1.6相比,采用节点内集合通信通用算法的MAHCAF能够对广播、多对多广播、归约和全归约在绝大多数条件下带来显着的性能提升;不仅如此,将专门针对Nehalem体系结构设计的多级分段归约算法(HSRA)加入MAHCAF后,归约和全归约通信的性能还能够被进一步提高。3、针对非平衡进程到达影响广播通信性能的问题,基于MPIActor的特有结构提出了一种竞争式流水化优化(Competitive and Pipelined,简称CP)方法以提高非平衡进程到达模式下的广播通信性能。该方法利用多核/多处理器系统节点内运行多个进程的优势,将节点内最早到达的进程作为执行节点间通信的引导进程,能在最早时间启动节点间集合通信过程,减少广播通信平均等待时间。微性能测试实验表明,采用CP方法优化的广播性能显着优于传统算法,而两个实际应用实例的性能测试也表明CP方法能够显着改善广播性能。4、面向多核/多处理器系统上的节点内MPI通信优化,在MPIActor基础上提出了一套高效的共享内存消息传递接口(Shared-Memory Message Passing Interface,简称SMPI)。相比传统MPI,该接口能支持运行在同一节点上的MPI进程通过传递消息地址直接读取进程间发送的消息数据,而不是复制消息数据到当前进程,因此极大减少了访存开销。实验表明,在8个节点上用64个MPI进程进行4000阶矩阵乘,利用该接口设计的cannon矩阵乘算法较利用MPI设计的算法加速比达到了约1.14。
解庆春[5](2009)在《离子传输模拟并行计算平台中动态负载均衡模型研究》文中认为随着信息技术的迅猛发展,越来越多的领域需要在极短的时间内处理大量的数据。而传统的单机模式往往无能为力,并行计算被认为是解决此类问题的可行途径之一。其中集群有投资少、易实现、见效快等优点,是并行计算发展的趋势。本课题源自中科院近代物理研究所强流加速器中空间电荷效应及稳定性的理论与实验研究项目。本文通过并行集群技术,实现多个计算节点协同完成离子传输模拟的数值计算任务。本文针对异构集群平台,提出了一种基于负载状态反馈的动态负载均衡模型。本文主要工作包括:首先,应用并行设计的PCAM方法和分治算法对加速器离子传输模拟问题建立并行求解模型,并通过MPI(Message Passing Interface)接口与C语言完成并行程序的设计和实现。其次,提出了一种基于状态反馈的动态负载均衡模型DLBMSF(Dynamic Load Balancing Model based on Status Feedback),该模型提出用可用资源综合权值作为作业调度的指标,用改进的加权轮询调度算法-IWRRS算法(Improved Weighted Round-Robin Scheduling)进行作业分配;提出了一种基于负载状态改变触发的作业迁移算法- TTALSC算法(Tasks Transfer Algorithm based on Load Status Changing),该算法大大提高了异构集群的并行效率;应用周期心跳检测机制保障集群系统的稳定性与可靠性。最后,通过对实验结果分析,验证了通过PC集群实现并行计算的优越性和有效性,验证了本文提出的DLBMSF模型相对于MPICH提供的轮转调度具有较高的负载均衡效率。
李永旭[6](2007)在《基于MPI标准的并行计算平台的设计与实现》文中研究指明随着超级计算需求的扩大,人们把高性能计算更多的应用于数据挖掘应用、图像处理业务、基因测序比对处理等数据处理领域。科学计算的规模迅速膨胀,使得传统的串行计算已经不能满足要求,从而提出了并行计算的概念。并行计算是相对于串行计算来说的,它将进程相对独立的分配于不同的节点上,由各自独立的操作系统调度,享有独立的CPU和内存资源;进程间通过消息传递相互交换信息。但是除了近来逐步完善并走向实用化的数据流计算机之外,50年来计算机系统结构虽取得重大进展,但并没有发生革命性的变化,现已实用化的计算机是以冯·诺依曼机器为原型,在此基础上加入并提高并行处理实现的手段和并行处理的能力。MPI是1994年5月发布的一种消息传递接口,是为消息传递程序提供的标准库。MPI以语言独立的形式来定义这个接口库,并提供了与C和Fortran语言的绑定,是目前高效率的超大规模并行计算最可信赖的平台。目前,Internet连接着大量的个人PC机和各种超级计算机,汇集了大量的计算资源。为了利用Internet上广泛分布的空闲计算资源,目前已经有多个分布式计算项目,比如:SETI@Home,GIMPS等等。这些项目已经证实了这种计算模型的可行性。这些系统的资源高度不稳定、用户不可信任、通信带宽有限、延迟巨大。本文采用目前国内外较为流行的面向对象系统分析技术,确定了由对象层、结构与实例连接层、主题层、属性层和事件层构成的静态架构。最后,给出由静态架构反射出来的用例视图,用于表示系统功能的高层逻辑模型,实现在计算机集群的网络范围的分布式计算,该系统资源稳定、用户可信、通信情况优良。
张志宏[7](2007)在《基于SMP节点机群系统上MPI与OpenMP并行程序设计的研究》文中进行了进一步梳理在现代超级计算机和超级服务器体系结构的研究中,机群系统逐渐成为一种主流的结构。但是目前,对于应当如何结合这种系统的SMP节点内部的并行和SMP Cluster节点间的并行,以及超线程对SMP Cluster系统并行程序设计的影响,人们了解得并不是很透彻,而这一点,恰恰是我们能够有效地进行并行程序设计并有效提高并行程序执行效率的基础。为此本文在基于双CPU和双CPU有超线程节点的机群上进行了一系列测试与分析。分析和测评了在SMP节点机群上的MPI、OpenMP及MPI+OpenMP编程模式的性能和特性。在此基础上,对基于SMP结点机群系统的几个并行程序设计模式作了性能方面的比较,得出细粒度并行化的OpenMP+MPI是SMP机群编程模型的一个较好选择和超线程对SMP机群的MPI并行程序的效率有很大的提高的结论。
刘虎[8](2006)在《基于COW集群的6FLC-MDPFGA在多传感器多目标跟踪中的应用研究》文中研究说明遗传算法能有效地求解属于NP难类型的组合优化问题,现已成为寻求满意解的最佳工具之一。利用模糊逻辑控制器(FLC)在线调整遗传算法控制参数可以有效改善遗传算法性能。并行化结构可以提高遗传算法的运行速度,从而使其适应一些实时性要求较高的场合。针对多传感器多目标跟踪中的数据关联问题,为提高基于模糊遗传算法(FGA)的数据关联算法的效率和实时性,本文发展了一种新的具有六模糊控制器的多种群并行FGA(MDPFGA),基本形成了基于6FLC-MDPFGA的并行数据关联算法的框架结构。所有算法均在利用MPI技术构建的COW集群上进行设计实现,并在多目标多站条件下无源定位(静态和动态)的仿真环境中进行了试验应用。首先,本文对MDPFGA以及COW集群的研究现状和应用可行性进行了概括,从信息融合理论的角度介绍了多传感器多目标跟踪算法研究的问题范围,对文中仿真实验目标问题的工程应用背景进行了说明,给出了本文研究课题的总体研究思路和主要工作内容。本文为基于六模糊控制器的模糊遗传算法(6FLC-FGA)设计了相应的自学习算法,为该算法中的模糊逻辑系统提供了一种自动化设计方案。在此基础上,提出了基于COW集群的6FLC-MDPFGA。对种群规模、迁移间隔、迁移率等重要参数进行了深入的研究,得出了在特定条件下参数选择的经验值和规律,定性分析了不同参数选择对于求解结果的不同影响。从而构建了一个可扩展的通用算法平台。多传感器多目标跟踪系统进行目标状态估计中的数据关联问题可以阐述为广义S维分配问题,当将该问题表达为约束组合优化问题时就可以用相应的6FLC-MDPFGA进行求解。本文基于极大似然法设计了相应的6FLC-MDPFGA进行量测静态关联,解决静态S维分配问题,并完成多目标跟踪航迹起始;基于多假设法提出了采用复合结构6FLC-MDPFGA进行量测/航迹动态关联,完成多目标跟踪航迹管理;在上述算法的基础上合成了基于6FLC-MDPFGA的广义S维分配算法;采用聚类技术提出了基于6FLC-MDPFGA的多维聚类分配算法。仿真实验的结果演示了6FLC-MDPFGA在多传感器多目标跟踪中应用的可行性。最后,本文提出一种新的基于“双DSP+FPGA集群”的硬件通用平台模型用于实现6FLC-MDPFGA的硬件算法,对6FLC-MDPFGA及其在多传感器多目标跟踪中应用的一些尚待解决的问题进行了讨论,并给出了对本课题未来研究的展望。
霍旭光[9](2006)在《基于MPI高性能计算方法的研究》文中认为现代科学技术的进步极大的促进了计算科学的发展。新一代的计算机无论计算能力和计算速度都比早期的计算机优越。但人类对高性能计算的要求也不断提高,在实践中,由于受到物理元器件极限速度和技术水平的限制,单个的处理器远远不能满足现代许多领域中具有挑战性的大规模计算课题对计算资源的需求,所以除了增强处理器本身的计算能力外,并行处理是一种提高计算能力的有效手段,所以对高性能并行计算进行研究是很有必要的。 从前,并行处理采用昂贵的专用计算机,随着个人计算机及其网络成本的下降,现已广泛使用分布式网络计算机系统进行并行处理。在分布式网络计算机系统中,采用消息传递方法实现进程间的通讯。当前流行的基于消息传递的并行编程环境是MPI(Message Passing Interface)和PVM(Parallel Virtual Machine),其中消息传递接口MPI以其移植性好、功能强大、高效等优点而成为目前最重要的并行编程工具。 本论文首先介绍了并行计算的基本理论,然后介绍了计算机机群系统和MPI消息传递机制。在此基础上,构建了基于windows和MPI的小型PC机群试验环境。针对物理学中导热问题的数值解法计算量大、单机计算负担过重的实际情况,分析了利用PC机群以及数值分析中的高斯·赛德尔算法求解高阶线性方程组的问题,并且利用并行环境中的并行程序的设计方法使用现在比较流行的C++的面向对象技术实现了这个算法,测试机群平台上分布式计算相对与单机计算的优势。文中给出了MPI程序设计方法的比较详细的介绍,论述了对高斯·赛德尔算法进行并行化的主要思想,并在对这个算法的实现过程中用到的各种方法做了简要分析,最后总结了本论文所做的工作,并指出有待于进一步研究的问题。
张帆[10](2006)在《基于消息传递的并行计算环境设计与实现》文中提出随着计算机硬件系统以及网络技术的快速发展,从PC到工作站集群等可扩展计算机集群正逐步成为高性能和大规模计算的标准平台之一。如何更有效的开发工作站集群的计算能力的想法已经在高性能计算领域内得到了高度重视,集群计算已经被认为是未来解决大小科学和商业计算的主流方案。而如何发挥出集群系统的强大计算能力,这需要许多软、硬件环境的支持。基于消息传递机制的并行计算环境为这种高性能集群计算提供了强有力的支持。这是因为并行计算环境使用多计算机来求解问题,它比使用单一计算机的计算速度要快,因为多计算机比单计算机拥有更大的总存储容量和处理能力。而消息传递机制为并行计算环境提供一种方便且强大的通信机制。在本文中,我们根据并行计算的基本原理,独立设计并实现了一种基于消息传递的并行计算环境。它采用了多计算节点加管理控制节点的系统架构。系统中存在一个主服务器(管理控制节点),其主要负责对系统中其它多台从服务器(计算节点)进行管理和控制。此外,主、从服务器之间还进行各类数据消息的发送和接收。为了实时地了解系统中各从服务器的运行状况,我们设计了一个独立的性能监视器,它定期收集从服务器的各项负载信息,并发送给主服务器,主服务器根据收集到的从服务器的负载情况对客户作业进行调度。当客户机向系统发出并行计算请求时,主服务器将接受客户提交的主计算任务,并根据调度策略选择合适的从服务器来处理主计算任务所派生的子任务。另外,为了方便并行程序开发人员完成基于本并行计算系统的并行程序的开发,我们还提供了它的编程接口。本文所做的主要工作如下:1.分析了并行机和集群系统的系统结构、模型以及它们的软件平台;
二、MPP上用类SPMD模式实现作业并行的方法(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、MPP上用类SPMD模式实现作业并行的方法(论文提纲范文)
(1)电大尺寸舰船尾迹电磁散射特性及并行加速算法研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景和研究意义 |
1.2 国内外研究现状和发展趋势 |
1.2.1 海面几何模型理论 |
1.2.2 舰船尾迹模型理论 |
1.2.3 海面及舰船尾迹电磁散射理论 |
1.2.4 MPI及OpenMP并行加速算法研究 |
1.3 论文的主要工作和内容安排 |
第二章 海面及舰船Kelvin尾迹建模 |
2.1 随机粗糙面统计参量 |
2.2 常见海谱模型 |
2.2.1 PM海谱 |
2.2.2 A.K.Fung海谱 |
2.2.3 Elfouhaily海谱 |
2.3 粗糙海面几何建模 |
2.3.1 蒙特卡罗方法 |
2.3.2 PM谱海面模型 |
2.3.3 Elfouhaily谱海面模型 |
2.4 舰船Kelvin尾迹建模 |
2.4.1 Kelvin尾迹原理介绍 |
2.4.2 Kelvin尾迹模型 |
2.4.3 Kelvin尾迹与海面复合模型 |
2.5 本章总结 |
第三章 三维电大尺寸舰船Kelvin尾迹电磁散射特性研究 |
3.1 常用电磁散射近似方法 |
3.1.1 基尔霍夫近似法 |
3.1.2 微扰法 |
3.1.3 双尺度法 |
3.2 小斜率近似理论 |
3.2.1 小斜率近似模型的散射振幅 |
3.2.2 锥形波入射下的小斜率近似模型 |
3.3 电大尺寸海面散射特性分析 |
3.4 电大尺寸Kelvin尾迹散射特性分析 |
3.5 本章总结 |
第四章 舰船湍流尾迹建模及其特性分析 |
4.1 流体的基本理论 |
4.1.1 流体力学基础 |
4.1.2 湍流满足的动力学方程 |
4.1.3 湍流的数值模拟理论 |
4.2 舰船湍流尾迹 |
4.2.1 湍流尾迹的形成 |
4.2.2 湍流尾迹模型理论 |
4.2.3 湍流尾迹建模 |
4.3 湍流流场特性分析 |
4.3.1 Fluent软件基础 |
4.3.2 湍流模型仿真 |
4.3.3 流场分析 |
4.4 一维湍流尾迹电磁散射特性分析 |
4.4.1 湍流尾迹仿真 |
4.4.2 电磁散射特性分析 |
4.5 本章总结 |
第五章 基于并行小斜率近似的电大尺寸Kelvin尾迹研究 |
5.1 并行计算基础 |
5.1.1 并行计算机 |
5.1.2 并行编程模型 |
5.1.3 并行算法 |
5.2 MPI+SSA并行算法设计 |
5.2.1 MPI基本理论 |
5.2.2 MPI算例 |
5.2.3 MPI+SSA并行算法设计 |
5.3 OpenMP+SSA并行算法设计 |
5.3.1 OpenMP基本理论 |
5.3.2 OpenMP+SSA并行算法设计 |
5.4 并行小斜率近似计算电大尺寸Kelvin尾迹结果分析 |
5.4.1 MPI+SSA计算结果分析 |
5.4.2 OpenMP+SSA计算结果分析 |
5.5 本章总结 |
第六章 总结与展望 |
6.1 本文总结 |
6.2 研究展望 |
参考文献 |
致谢 |
作者简介 |
(2)一种网络化测试系统中的并行数据处理架构的实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题来源及研究的目的和意义 |
1.2 国内外研究现状 |
1.2.1 计算模式研究现状 |
1.2.2 计算平台结构研究现状 |
1.2.3 隔离技术 |
1.3 基于仪器资源的平台构建方案分析 |
1.4 本课题的主要研究内容 |
1.5 论文结构 |
第2章 基于仪器资源的并行数据处理计算架构 |
2.1 网络化测试系统体系结构 |
2.2 并行数据处理的基本概念 |
2.2.1 数据处理与计算的关系 |
2.2.2 任务与作业的关系 |
2.2.3 作业管理系统 |
2.3 实现网络化并行数据处理要解决的问题 |
2.4 网络化测试系统中的并行数据处理架构 |
2.5 本章小结 |
第3章 适于网络化测试系统的计算资源模型 |
3.1 PBS作业管理系统简介 |
3.2 面向用户的顶层计算资源管理实现 |
3.2.1 TORQUE进程结构设计 |
3.2.2 系统安装、配置及使用 |
3.3 Cgroups的概念和原理 |
3.4 面向仪器资源的硬件资源管理 |
3.4.1 CPU与Memory控制 |
3.4.2 基于Cgroups的仪器节点计算资源隔离的实现 |
3.5 本章小结 |
第4章 基于MPI的测试数据并行处理 |
4.1 并行程序开发基础 |
4.1.1 并行算法设计策略 |
4.1.2 并行粒度和任务分解 |
4.1.3 并行编程模式 |
4.1.4 程序结构设计 |
4.2 并行FFT算法设计 |
4.3 MPI计算平台构建 |
4.3.1 MPI消息传递模型 |
4.3.2 Hydra进程管理 |
4.3.3 MPI计算平台构建过程 |
4.4 并行FFT的MPI应用程序开发 |
4.4.1 MPI中的定义 |
4.4.2 程序主体开发 |
4.5 本章小结 |
第5章 网络化测试系统中并行数据处理实验验证 |
5.1 实验硬件平台简介 |
5.2 Cgroups资源控制实验验证 |
5.2.1 CPU资源控制实验 |
5.2.2 物理内存资源限制实验 |
5.3 并行FFT计算性能评估 |
5.4 资源限制下的并行FFT计算和节点计算资源使用 |
5.5 本章小结 |
结论 |
参考文献 |
攻读学位期间发表的学术论文及其它成果 |
致谢 |
(3)可重构众核流处理器上的编译与程序优化技术(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景 |
1.1.1 流处理器体系结构的诞生与发展 |
1.1.2 流编程模型的发展 |
1.1.3 为什么需要可重构流处理器 |
1.2 可重构众核流处理器编程和编译面临的几个关键问题 |
1.2.1 指令集系统 |
1.2.2 软件编译系统设计 |
1.2.3 流程序中并行性的表示和开发 |
1.3 论文的研究目标和主要工作 |
1.4 论文结构 |
第2章 流处理器编程与编译相关研究工作 |
2.1 流处理器的指令集系统 |
2.1.1 超长指令字VLIW |
2.1.2 并发线程执行指令集PTX |
2.1.3 DISC-D |
2.2 流处理器编程语言与编译器 |
2.2.1 StreamC/KernelC |
2.2.2 StreamIt |
2.2.3 CUDA |
2.2.4 其它流编程语言 |
2.3 CUDA编程模型的几种编译方案 |
2.3.1 MCUDA |
2.3.2 OpenMP to GPGPU |
2.3.3 hiCUDA |
2.4 小结 |
第3章 流编程模型与可重构众核流处理器上的执行模型研究 |
3.1 流编程模型的研究 |
3.2 可重构众核流处理器上的执行模型 |
3.2.1 可重构众核流处理器体系结构简介 |
3.2.2 超块执行模型的组织与执行 |
3.3 流编程模型在可重构众核流处理器上的映射方案探索 |
3.3.1 多线程映射方案 |
3.3.2 核心程序的单一线程与组合线程两种映射方式 |
3.4 小结 |
第4章 扩展EDGE指令集系统的研究 |
4.1 类数据流EDGE指令集系统 |
4.1.1 指令格式 |
4.1.2 EDGE指令集对可重构的支持 |
4.2 设计面向可重构系统的扩展EDGE指令集DISC-S |
4.3 本章小结 |
第5章 编译工具链设计-与实现 |
5.1 编译系统设计框架 |
5.2 Ptx2EDGE编译器 |
5.2.1 编译链概述 |
5.2.2 基于Antlr的前端实现 |
5.2.3 语法树与控制流图中间表示形式的实现 |
5.2.4 后端实现 |
5.3 CUDA主机代码的编译实现 |
5.3.1 主机代码中的CUDA C语言扩展 |
5.3.2 CUDA运行时库移植 |
5.4 实验评测 |
5.4.1 正确性与超块产生效率 |
5.4.2 性能评测 |
5.5 本章小结 |
第6章 流处理器上不规则程序优化技术研究 |
6.1 不规则程序在流处理器上的性能分析 |
6.1.1 不规则程序的行为特征与性能瓶颈 |
6.1.2 不规则程序中的并行性分析 |
6.2 实例研究:图广度优先遍历算法 |
6.2.1 BFS算法的并行性分析 |
6.2.2 基于可用并行性反馈的实现:FlexBFS |
6.2.3 动态队列的层次化优化 |
6.2.4 不规则输入图中的负载平衡优化 |
6.2.5 性能评测 |
6.3 小结 |
第7章 全文总结 |
7.1 论文工作总结 |
7.2 本文的主要创新点 |
7.3 未来研究工作 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
在读期间参与的科研项目 |
(4)面向多核的系统级MPI通信优化关键技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景 |
1.1.1 高性能计算跨入多核时代 |
1.1.2 MPI 仍然是应对多核系统并行程序开发的重要手段 |
1.1.3 多核系统上MPI 通信性能优化面临的挑战 |
1.2 国内外相关研究工作 |
1.2.1 节点内点对点通信优化相关工作 |
1.2.2 集合通信优化的相关工作 |
1.2.3 线程MPI 的相关工作 |
1.2.4 MPI 支撑软件发展情况 |
1.3 本文的主要内容与创新点 |
1.3.1 本文的研究内容 |
1.3.2 本文的主要贡献 |
1.4 论文组织结构 |
第二章 MPI 通信加速器设计 |
2.1 MPIActor 总体结构 |
2.1.1 MPIActor 基本思想 |
2.1.2 MPIActor 的线程MPI 支撑结构 |
2.2 MPIActor 程序的工作机制 |
2.2.1 运行期机制 |
2.2.2 编译期机制 |
2.2.3 作业加载机制 |
2.3 MPI 接口聚合原理 |
2.3.1 问题定义 |
2.3.2 MPI 接口分析 |
2.4 点对点通信聚合技术 |
2.4.1 通信请求分离 |
2.4.2 节点间通信请求的转发方法 |
2.4.3 对MPI_ANY_SOURCE 类型请求的处理方法 |
2.5 通信域及进程组管理接口聚合技术 |
2.5.1 基础知识 |
2.5.2 进程组构造接口聚合 |
2.5.3 通信域构造接口聚合 |
2.6 基于轻量级单次内存拷贝的节点内点对点通信算法 |
2.6.1 通信基础结构 |
2.6.2 通信算法 |
2.7 实验与结果 |
2.7.1 实验方法 |
2.7.2 实验结果与分析 |
2.8 小结 |
第三章 基于MPIActor 的集合通信优化 |
3.1 MPI 集合通信接口概述 |
3.2 MPIActor 分级集合通信算法框架 |
3.2.1 MPI_Allgather 算法模板:一个算法模板示例 |
3.2.2 分级集合通信算法框架定义 |
3.3 基于线程MPI 的节点内集合通信通用算法 |
3.3.1 节点内广播算法与分散算法 |
3.3.2 节点内收集 |
3.3.3 节点内归约 |
3.3.4 节点内扫描 |
3.4 面向Nehalem 体系结构intra_reduce 的多级分段归约算法 |
3.4.1 算法基本思想 |
3.4.2 算法分析 |
3.5 实验与结果 |
3.5.1 实验方法 |
3.5.2 广播(MPI_Bcast)性能研究 |
3.5.3 多对多广播(MPI_Allgather)性能研究 |
3.5.4 归约(MPI_Reduce)与全归约(MPI_Allreduce)性能研究 |
3.6 小结 |
第四章 一种针对非平衡进程到达模式下MPI 广播的性能优化方法 |
4.1 相关工作 |
4.2 问题分析与竞争式流水化优化方法设计 |
4.2.1 性能模型 |
4.2.2 问题分析 |
4.2.3 竞争式流水化方法 |
4.3 竞争式流水化广播算法实现 |
4.4 实验与结果 |
4.4.1 微基准测试(Micro Benchmark) |
4.4.2 应用测试 |
4.5 小结 |
第五章 基于MPIActor 的共享内存消息传递接口优化技术 |
5.1 SMPI 的基本思想 |
5.2 SMPI 接口定义 |
5.2.1 约定与数据结构 |
5.2.2 点对点通信接口 |
5.2.3 集合通信接口 |
5.2.4 访问控制接口 |
5.3 基于SMPI 接口的并行程序设计规则 |
5.3.1 点对点通信 |
5.3.2 集合通信 |
5.4 应用算法实例与实验结果 |
5.4.1 测试用例:矩阵乘cannon 算法 |
5.4.2 实验结果 |
5.6 小结 |
第六章 结论与展望 |
6.1 工作总结 |
6.2 工作展望 |
致谢 |
参考文献 |
作者在学期间以第一作者身份取得的学术成果 |
附件A 本文的实验平台介绍 |
A.1 Clovertown 集群节点体系结构简介 |
A.2 Nehalem 集群节点体系结构简介 |
(5)离子传输模拟并行计算平台中动态负载均衡模型研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景 |
1.2 课题来源及意义 |
1.3 本文主要工作 |
第2章 并行计算与集群系统 |
2.1 并行计算机 |
2.2 集群 |
2.2.1 集群系统的关键技术 |
2.2.2 集群系统的研究现状 |
2.3 并行算法 |
2.3.1 并行算法设计基本原则 |
2.3.2 并行算法设计的一般过程 |
2.3.3 典型并行算法设计方法 |
2.3.4 并行算法的性能评价 |
2.4 并行程序设计 |
2.4.1 并行编程模式分类 |
2.4.2 并行编程模型 |
2.4.3 MPI 并行程序设计 |
2.5 小结 |
第3章 加速器离子模拟并行程序设计 |
3.1 问题描述 |
3.2 串行算法 |
3.3 并行算法的设计 |
3.3.1 问题并行化分析 |
3.3.2 问题并行化设计 |
3.3.3 并行程序部分伪代码 |
3.4 小结 |
第4章 一种基于状态反馈的动态负载均衡模型 |
4.1 负载均衡技术 |
4.1.1 负载均衡意义 |
4.1.2 负载均衡算法的分类 |
4.1.3 作业调度方式 |
4.1.4 常见的负载均衡系统 |
4.2 一种基于状态反馈的动态负载均衡模型 |
4.2.1 负载指标 |
4.2.2 IWRRS 算法 |
4.2.3 TTALSC 算法 |
4.3 动态负载均衡模型设计 |
4.3.1 总体模型设计 |
4.3.2 主节点模型设计 |
4.3.3 从节点模型设计 |
4.4 动态负载均衡模型实现 |
4.4.1 消息传递机制 |
4.4.2 模型主节点实现 |
4.4.3 模型从节点实现 |
4.5 小结 |
第5章 实验测试与性能分析 |
5.1 集群平台构建 |
5.1.1 节点配置 |
5.1.2 组建集群 |
5.1.3 MPICH2 与 V52008 配置 |
5.2 串并行算法结果对比 |
5.3 DLBMSF 模型性能分析 |
5.4 稳定和可靠性 |
5.5 小结 |
结论 |
参考文献 |
致谢 |
附录 A (攻读学位期间所发表的学术论文目录 |
附录 B (攻读硕士学位期间所参与的科研活动 |
(6)基于MPI标准的并行计算平台的设计与实现(论文提纲范文)
中文摘要 |
英文摘要 |
目录 |
引言 |
第一章 并行计算简介 |
1.1 从超级计算到高性能计算 |
1.2 高性能计算应用领域的变迁 |
1.3 并行计算的概念 |
1.4 可扩展的并行计算机体系结构 |
1.4.1 根据指令流和数据流的不同的计算机系统分类 |
1.4.2 按同时执行的程序和数据的不同的计算机系统分类 |
1.4.3 五种实际物理机模型 |
1.5 并行计算机硬件结构抽象模型 |
1.6 并行计算机的发展 |
第二章 MPI简介 |
2.1 并行计算发展的障碍 |
2.1.1 硬件上的障碍 |
2.1.2 软件上的障碍 |
2.2 并行算法的设计 |
2.3 MPI概述 |
2.4 MPI的目的 |
2.5 MPI的特点 |
2.6 MPI的的特性 |
2.6.1 点对点通信 |
2.6.2 群体操作 |
2.6.3 进程组 |
2.6.4 通信上下文 |
2.6.5 进程拓扑结构 |
2.6.6 MPI环境管理 |
2.6.7 监视程序接口 |
2.7 MPI现有的各种实现 |
第三章 基本的MPI并行程序设计 |
3.1 MPI的实现环境 |
3.1.1 集群的概念 |
3.1.2 集群的分类 |
3.1.3 集群的优点 |
3.2 六个接口构成的MPI子集 |
3.2.1 MPI调用接口1:MPI_INIT(MPI初始化) |
3.2.2 MPI调用接口2:MPI_FINALIZE(MPI结束) |
3.2.3 MPI调用接口3:MPI_COMM_RANK(当前进程标识) |
3.2.4 MPI调用接口4:MPI_COMM_SIZE(通信域包含的进程数) |
3.2.5 MPI调用接口5:MPI_SEND(消息发送) |
3.2.6 MPI调用接口6:MPI_RECV(消息接收) |
3.3 MPI调用的参数说明 |
3.4 MPI的程序框架 |
3.5 MPI预定义数据类型 |
3.6 MPI的消息 |
3.6.1 MPI消息的组成 |
3.6.2 任意源和任意标识 |
3.6.3 MPI通信域 |
3.7 MPI的通信模式 |
3.7.1 标准通信模式 |
3.7.2 缓存通信模式 |
3.7.3 同步通信模式 |
3.7.4 就绪通信模式 |
3.8 MPI并行程序的基本模式 |
3.8.1 对等模式 |
3.8.2 主从模式 |
第四章 并行计算平台的分析与设计 |
4.1 并行计算平台总体架构 |
4.2 计算平台实现的相关技术 |
4.3 并行计算平台的系统分析 |
4.3.1 对象层定义 |
4.3.2 结构与实例连接层定义 |
4.3.3 主题层定义 |
4.3.4 属性层定义 |
4.3.5 用例视图 |
第五章 并行计算平台的实现 |
5.1 MPI程序执行的基本流程 |
5.2 具体实现 |
5.2.1 MonitorInfo类 |
5.2.2 MonitorPollHandler类 |
5.2.3 MonitorJob类 |
5.2.4 MonitorJobManagement类 |
5.2.5 RPCComm类 |
5.2.6 DispatcherNode类 |
5.2.7 Process类 |
5.2.8 TestDeadWorker类 |
第六章 结论与展望 |
参考文献 |
在学期间的科研成果 |
后记 |
(7)基于SMP节点机群系统上MPI与OpenMP并行程序设计的研究(论文提纲范文)
摘要 |
ABSTRACT |
目录 |
图表目录 |
第一章 绪论 |
1.1 论文研究背景 |
1.2 论文研究的内容 |
第二章 并行计算机的概况及编程模型 |
2.1 并行计算机发展历程 |
2.2 当代并行机系统:SMP、DSM、MPP和机群系统的介绍 |
2.2.1 对称多处理机SMP系统 |
2.2.2 分布共享存储处理机系统 |
2.2.3 大规模并行计算机系统 |
2.2.4 机群系统 |
2.3 并行程序的编程模式 |
2.3.1 共享内存模型 |
2.3.2 消息传递模型 |
2.3.3 HPF |
2.3.4 并行库 |
第三章 MPI与OpenMP介绍 |
3.1 MPI消息传递编程模式 |
3.1.1 MPI概述 |
3.1.2 进程与消息传递 |
3.1.3 MPI并行程序设计入门 |
3.1.4 初步的MPI消息传递函数 |
3.2 OpenMP编程模型 |
3.2.1 OpenMP概述 |
3.2.2 OpenMP编程风格 |
3.2.3 OpenMP编程简介 |
3.3 MPI与OpenMP环境的搭建与编译运行 |
3.3.1 MPI |
3.3.2 OpenMP |
3.3.3 编译和运行MPI+OpenMP的应用程序 |
第四章 基于SMP机群的MPI与OpenMP编程研究 |
4.1 测试环境及测试程序介绍 |
4.1.1 测试环境 |
4.1.2 测试程序 |
4.2 在单节点上的测试分析 |
4.2.1 MPI消息传递和内存拷贝的比较 |
4.2.2 在单节点上纯MPI与纯OpenMP的测试和比较分析 |
4.3 在机群系统上MPI+OpenMP的比较分析 |
4.3.1 MPI+OpenMP混合编程模型的介绍 |
4.3.2 OpenMP+MPI需要注意的问题 |
4.3.3 OpenMP+MPI的测试和比较分析 |
第五章 总结和进一步的工作 |
5.1 测试结果总结与分析 |
5.2 进一步的工作 |
参考文献 |
致谢 |
(8)基于COW集群的6FLC-MDPFGA在多传感器多目标跟踪中的应用研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 引言 |
1.2 并行多种群模糊遗传算法的理论研究现状和应用可行性分析 |
1.2.1 并行多种群模糊遗传算法的理论研究现状 |
1.2.2 并行多种群模糊遗传算法的应用可行性分析 |
1.3 计算机集群的理论研究现状和应用可行性分析 |
1.3.1 计算机集群的研究现状 |
1.3.2 计算机集群的应用可行性分析 |
1.4 多目标跟踪算法的理论研究 |
1.5 本文研究的主要内容、思路和仿真试验方法 |
1.5.1 本文研究的主要内容 |
1.5.2 本文总体研究思路 |
1.5.3 本文研究的仿真试验方法 |
1.6 本文的内容安排 |
第二章 具有自学习规则库的模糊自适应遗传算法 |
2.1 引言 |
2.2 自适应遗传算法 |
2.2.1 自适应遗传算法的分类 |
2.2.2 参数设置自适应遗传算法 |
2.2.3 基于模糊逻辑控制器的自适应遗传算法 |
2.3 基于六模糊控制器的自适应遗传算法 |
2.3.1 自适应参数设置控制策略 |
2.3.2 模糊控制器设计 |
2.3.3 算法主体结构 |
2.4 自学习混合模糊自适应遗传算法 |
2.4.1 动态参数AGA 模糊知识系统的自动化设计 |
2.4.2 自学习混合模糊自适应遗传算法的设计 |
2.4.3 算法测试 |
2.5 本章小结 |
第三章 基于COW 集群的6FLC-MDPFGA 算法的实现及其参数研究 |
3.1 引言 |
3.2 并行计算研究 |
3.2.1 并行算法的理论研究 |
3.2.2 并行计算机系统互连 |
3.2.3 并行计算机的基本性能测度指标 |
3.2.4 COW 集群技术发展现状 |
3.3 基于COW 集群的6FLC-MDPFGA 算法的实现 |
3.3.1 COW 集群及其关键构建技术MPI |
3.3.2 6FLC-MDPFGA算法方案 |
3.3.3 6FLC-MDPFGA 算法实现 |
3.3.4 6FLC-MDPFGA 算法演示验证 |
3.4 基于 COW 集群的6FLC-MDPFGA 算法参数研究 |
3.4.1 算法参数设置试验及结果分析 |
3.4.2 研究结论及问题讨论 |
3.5 本章小结 |
第四章 广义S 维分配问题 |
4.1 引言 |
4.2 静态SD 分配问题 |
4.3 m-best SD 分配问题 |
4.4 动态2D 分配问题 |
4.5 广义SD分配算法概述 |
4.5.1 静态SD 分配算法 |
4.5.2 m-best SD分配算法 |
4.5.3 动态2D 分配算法 |
4.6 本章小结 |
第五章 基于6FLC-MDPFGA 的静态SD 分配算法 |
5.1 引言 |
5.2 问题描述 |
5.3 基于6FLC-MDPFGA 的静态SD 分配算法设计 |
5.4 算法仿真实验及分析 |
5.5 本章小结 |
第六章 基于6FLC-MDPFGA 的m-best SD 分配算法 |
6.1 引言 |
6.2 问题描述 |
6.3 基于6FLC-MDPFGA 的m-best SD 分配算法设计 |
6.3.1 基于FGA 的算法介绍 |
6.3.2 基于6FLC-MDPFGA 的m-best 2D 分配算法设计 |
6.3.3 基于6FLC-MDPFGA 的m-best SD 分配算法合成 |
6.4 算法仿真试验演示 |
6.5 本章小结 |
第七章 基于6FLC-MDPFGA 的多维聚类分配数据关联算法 |
7.1 引言 |
7.2 问题描述 |
7.2.1 采用分配问题公式的数据关联 |
7.2.2 聚类算法 |
7.3 基于6FLC-MDPFGA 的多维聚类分配数据关联算法设计 |
7.3.1 两维情况下采用被动或LOS 传感器的聚类算法 |
7.3.2 基于6FLC-MDPFGA 的多维聚类分配数据关联算法流程 |
7.4 算法仿真试验演示 |
7.4.1 SD 静态(准静态)分配问题 |
7.4.2 动态问题 |
7.5 本章小结 |
第八章 基于6FLC-MDPFGA 算法的硬件实现讨论 |
8.1 引言 |
8.2 基于FPGA 硬件算法现状 |
8.3 FPGA 设计简介 |
8.4 硬件动态可重构技术简介 |
8.5 6FLC-MDPFGA 算法的硬件实现讨论 |
8.5.1 并行模型的选择 |
8.5.2 算法设计 |
8.5.3 基于双 DSP+FPGA 集群的硬件实现平台模型 |
8.6 本章小结 |
第九章 全文总结 |
9.1 全文的研究工作和成果 |
9.2 研究展望 |
参考文献 |
致谢 |
攻读博士学位期间发表的论文及科研情况 |
(9)基于MPI高性能计算方法的研究(论文提纲范文)
第一章 绪论 |
1.1 国内外高性能计算的发展现状 |
1.2 本论文研究的意义及其主要工作 |
第二章 并行计算基础 |
2.1 并行化概述 |
2.2 并行计算机的分类 |
2.3 并行计算机的应用与发展 |
2.4 物理问题的并行求解过程 |
2.5 并行计算模型 |
第三章 PC机群系统及MPI消息传递 |
3.1 PC机群系统介绍 |
3.1.1 PC机群系统的特点 |
3.1.2 PC机群系统最新进展 |
3.2 机群环境并行算法的设计 |
3.3 消息传递机制 |
3.4 MPI简介 |
3.5 MPI通信分析 |
3.6 MPI并行程序设计模式 |
第四章 构建基于WINDOWS和MPI的PC机群 |
4.1 机群硬件环境 |
4.2 配置软件环境 |
4.3 MPI应用在分布式主机上的部署 |
第五章 热传导问题的数值解法 |
5.1 求解导热问题的方法 |
5.2 导热问题数值求解的基本思想 |
5.3 节点离散方程的建立 |
5.4 节点方程组的求解 |
第六章 基于MPI的高斯·赛德尔迭代算法及其实现 |
6.1 高斯·赛德尔迭代及其串行算法 |
6.2 高斯·赛德尔迭代并行算法设计 |
6.3 高斯·赛德尔迭代并行算法程序实现 |
6.4 MPI并行程序开发的一些技巧 |
第七章 高斯·赛德尔迭代并行程序性能分析 |
7.1 高斯·赛德尔并行算法解决导热问题的性能度量 |
7.2 并行程序设计中影响性能的若干经验 |
第八章 论文总结 |
致谢 |
参考文献 |
(10)基于消息传递的并行计算环境设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
1. 引言 |
1.1 背景 |
1.2 课题目的和意义 |
1.3 论文结构 |
2. 并行机与集群系统概述 |
2.1 并行机平台和模型 |
2.1.1 并行机的发展 |
2.1.2 并行机系统结构 |
2.1.3 并行机模型 |
2.1.4 物理机模型 |
2.2 集群系统 |
2.2.1 集群的相关特点 |
2.2.2 集群系统的体系结构 |
2.2.3 体系结构比较 |
2.2.4 集群机群软件平台 |
3. 并行编程概述 |
3.1 并行编程综述 |
3.1.1 并行编程为何艰难 |
3.1.2 并行编程方法 |
3.1.3 进程、任务和线程 |
3.2 并行性问题 |
3.2.1 静态和动态并行性 |
3.2.2 任务分配 |
3.3 并行编程环境 |
3.3.1 并行编译器 |
3.3.2 消息传递编程环境 |
3.3.3 虚拟共享存储 |
3.3.4 并行语言 |
3.3.5 并行的面向对象编程 |
3.4 消息传递并行编程 |
3.4.1 消息传递编程基础 |
3.4.2 消息传递编程的特征 |
3.4.3 消息传递编程 |
3.5 并行程序的时间评估 |
3.6 并行程序的调试 |
3.7 并行编程模型 |
4. 并行计算环境的设计与实现 |
4.1 概述 |
4.2 系统框架 |
4.3 系统特点 |
4.4 支持的并行编程模型 |
4.5 模块功能 |
4.5.1 Master 主服务 |
4.5.2 Slave 从服务 |
4.5.3 性能监控器 |
4.5.4 API 接口库 |
4.5.5 用户作业 |
4.6 模块内部结构 |
4.6.1 Master 的结构 |
4.6.2 Slave 的结构 |
4.6.3 性能监视器的结构 |
4.7 任务提交、派生和分配实现 |
4.7.1 主任务提交 |
4.7.2 子任务派生 |
4.7.3 子任务分配方式 |
4.8 消息通信实现 |
4.8.1 消息机制 |
4.8.2 消息缓冲区 |
4.8.3 消息缓冲区控制 |
4.8.4 主任务与Master 通信 |
4.8.5 Master 与Slave 通信 |
4.8.6 Slave 与子任务通信 |
4.8.6 Monitor 通信 |
4.8.7 Socket 通信封装 |
4.9 启动运行方式 |
4.9.1 Master 启动方式 |
4.9.2 Slave 启动方式 |
4.9.3 Monitor 启动 |
4.9.4 作业启动 |
4.10 部署需求 |
4.10.1 硬件环境 |
4.10.2 软件配置 |
5 基于本系统的编程模式 |
5.1 需要考虑的问题 |
5.2 应用编程模式 |
6 实例及性能测试 |
6.1 概述 |
6.2 硬件环境 |
6.3 软件环境 |
6.4 矩阵乘法算法 |
6.5 矩阵串行计算 |
6.6 矩阵并行计算 |
6.7 实验过程 |
6.8 实验结果 |
7. 结束语与将来的工作 |
参考文献 |
作者研究生期间的科研成果简介 |
致谢 |
四、MPP上用类SPMD模式实现作业并行的方法(论文参考文献)
- [1]电大尺寸舰船尾迹电磁散射特性及并行加速算法研究[D]. 王路. 西安电子科技大学, 2019(02)
- [2]一种网络化测试系统中的并行数据处理架构的实现[D]. 于洪彬. 哈尔滨工业大学, 2017(02)
- [3]可重构众核流处理器上的编译与程序优化技术[D]. 刘谷. 中国科学技术大学, 2013(07)
- [4]面向多核的系统级MPI通信优化关键技术研究[D]. 刘志强. 国防科学技术大学, 2011(07)
- [5]离子传输模拟并行计算平台中动态负载均衡模型研究[D]. 解庆春. 湖南大学, 2009(01)
- [6]基于MPI标准的并行计算平台的设计与实现[D]. 李永旭. 东北师范大学, 2007(06)
- [7]基于SMP节点机群系统上MPI与OpenMP并行程序设计的研究[D]. 张志宏. 内蒙古大学, 2007(06)
- [8]基于COW集群的6FLC-MDPFGA在多传感器多目标跟踪中的应用研究[D]. 刘虎. 南京航空航天大学, 2006(06)
- [9]基于MPI高性能计算方法的研究[D]. 霍旭光. 中国地质大学(北京), 2006(08)
- [10]基于消息传递的并行计算环境设计与实现[D]. 张帆. 四川大学, 2006(03)