一、Palm内存空间最优化(论文文献综述)
朱志恒[1](2021)在《多尺度形态学手掌识别系统建模与实现》文中提出当今社会,大数据、云计算、5G通信等技术快速发展与应用,网络信息化、智能化程度越来越高,对个人身份进行快速识别的技术层出不穷。手掌作为人体固有属性的生物特征,以其良好的稳定唯一性,成为生物特征识别技术领域中主要研究对象。手掌识别技术能够很好地克服传统身份识别技术易破解与易复制等缺点,是近年来发展迅速的前沿学科。它主要涵盖人工智能、视频与掌纹图像处理、模式识别与智能系统等多个研究领域。已引起当今学术界、国家政府、企事业单位等部门的高度重视,具有较好的发展潜力和广阔的应用前景。手掌图像主要是由人体手掌内面的表皮层、以及主要的脊线、皱线和纹线等构成。它具有丰富的纹理特征信息、高度稳定和持续可靠等优点,在多尺度形态学手掌识别系统中,具有比较典型的多样性特点。它的尺度选择与手掌识别技术密切相关,民用领域的手掌图像一般分辨率相对较低,其采集设备性价比高,用户接受性好,便于进行市场开拓与推广。手掌识别是利用手掌图像上的有效感兴趣区域,从中提取手掌图像的纹理、轮廓、大小、比例等特征信息,根据这些特征信息与手掌纹理特征数据库进行相似度验证,从而达到身份识别的目的。如果手掌特征信息与特殊领域的专业数据库进行信息交互检索,结合中医手诊理论的手掌纹理数据库,可以根据手掌纹理特性诊断并预测身体健康情况。手掌识别系统的性能取决于完善的系统架构、强悍的硬件支撑、高效的软件算法、安全的加密技术等多个方面。本文主要提出了一种建立基于物联网技术下的手掌识别系统模型,并提出了设计算法,对多尺度形态学手掌识别系统算法的建模与实现进行分析。该系统融合了物联网技术、多尺度分析、特征融合、数字形态学、多尺度形态学等技术。本文结合多尺度分析对手掌图像进行增强,识别算法主要结合尺度函数、小波函数、轮廓波与小波变换等进行分析识别,对离散域滤波器进行构造,迭代定向滤波器组进行多尺度多方向的手掌图像分解。形态学手掌图像处理,通过结构、时域、频域、子空间、统计学等特征提取方法。结合数学形态学、二值形态学、边缘形态学等,在不同的尺度下,进行形态学特征提取形成特征向量,进行形态学的系统建模。
唐亚若[2](2021)在《基于RGB视频流的实时动态手势识别的研究》文中研究指明随着各种形式的计算设备渗入人们生活,手势识别作为最自然的人机交互模式,应用在了不少拥有专业传感设备的场景下。然而近几年随着视频应用的发展,人们希望动态手势识别也能应用于普通的设备之上。但基于由普通设备采集到的RGB视频流的手势识别,通常面临着视频流未剪辑、背景杂乱、手部信息丢失等问题。并且对于实际场景下的动态手势识别,不仅有着实时性及计算资源的限制,还面临着一段手势应该仅被识别一次的单次激活问题。因此,如何兼顾实际场景下动态手势识别的准确性及实时性,成为了将手势识别应用于实际场景的主要挑战。为了提升RGB模态下三维卷积网络对于动态手势的识别效果,本文提出了一种基于类光流特征提取网络(TVNet)的端到端多模态协作训练架构(TVNet-based Multimodal Training,TVMT)。通过将传统的TV-L1算法迭代过程展开为TVNet网络层,来提取相邻RGB图像帧之间的类光流特征,作为多模态协作训练中的辅助模态。通过时空语义对齐损失函数(SSA)来鼓励不同的模态网络对相同的输入场景学习相同的理解,同时通过焦点正则化参数(FRP)来防止知识的负向迁移。TVMT训练架构使得RGB模态网络能够利用类光流模态网络学到的手势时空特征,来提升识别的准确率。此外,为了解决实际情景下动态手势识别的鲁棒性及效率问题,本文提出了一种基于动态阈值的滑动窗口双网络在线识别架构(Sliding Window based Online Recognition System with Dynamic Threshold,DtSWORS)。使用滑动窗口来处理未剪辑的视频流,并通过唤醒机制,使得离线工作的3DCNN网络也能在线运行。通过后验处理模块来对检测结果进行缓存并过滤,从而进行差错处理。对于手势的单次激活挑战,本文提出使用强化学习网络来对单次激活模块的决策阈值进行学习,从而能针对不同的输入视频特征进行动态的调整。
袁子恒[3](2020)在《几种局部优化方法在全波形反演中的对比研究》文中提出近年来随着勘探精度的不断提高和偏移技术的不断发展,普通反演方法的成像精度已经难以满足人们的实际需求。全波形反演(Full Waveform Inversion,简称FWI)是一种以实际数据与模拟数据差值的二范数为目标函数,通过求取目标函数的极小值来获得地下介质信息的一种反演方法,其成像结果具有高精度、高分辨率的特点,因此受到了地球物理学家的广泛关注。但目前全波形反演依旧还存在着许多没有解决的难点,例如反演的多解性问题、反演的强非线性问题以及反演过程中的超大计算量问题等。因此研究全波形反演问题依旧有着十分重要的理论意义和实际价值。本论文针对声波方程的全波形反演问题,开展了以下几个方面的研究工作:首先,论文对全波形反演的基础——地震波正演模拟进行了详细的研究。从差分逼近概念开始,详细地推导了一阶声波方程的交错网格有限差分格式;通过声波方程的差分格式推导了有限差分法的稳定性条件,进而研究了不同情况下有限差分的数值频散;讨论了不同的空间边界条件并且对最常用的CPML边界条件进行了细致的推导;最后通过模型试算证明了八阶精度的交错网格有限差分法和CPML边界条件可以满足正演模拟的要求。其次,论文详细讨论了全波形反演的理论基础。对全波形反演的关键难点——梯度和步长的求取从理论方面给出了详细的介绍;梯度的求取方法采用了伴随状态法,并给出了具体的推导过程;介绍了多种步长的求取方法;通过模拟验证了全波形反演以及伴随状态法的有效性。接下来,论文对三种最优化方法进行了详细的讨论。对于最速下降法、共轭梯度法原理进行了论述,并通过Rosenbrock函数分析了两者的优缺点,对于L-BFGS算法进行了详细的分析和推导,并给出了上述三种方法的算法流程;通过实际的模型试算可以明显看出基于L-BFGS算法的全波形反演效果最好,而基于最速下降法的反演效果最差,共轭梯度法居中。最后,为了降低反演所需的时间,论文论述了CUDA并行技术。从硬件和软件方面介绍了CUDA并行计算的特点,并通过实际的计算效果证明了CUDA并行技术的有效性和高效性。
张夏豪[4](2020)在《面向云数据中心计算资源的可靠性保障技术研究》文中研究说明云计算通过将硬件资源抽象成虚拟资源,为用户提供可弹性伸缩的按需获取的服务。随着越来越多的应用与服务部署在云端,用户对云计算可靠性的要求越来越高,且云数据中心的资源虚拟化、快速弹性架构和应用托管等复杂特性导致云数据中心容易出现异常和故障。因此,对可靠性的要求越来越高。如何保障云数据中心的可靠性,提高云计算系统提供无故障服务的能力成为亟待解决的问题。本文主要针对云数据中心计算资源的可靠性保障技术进行了研究,论文主要研究工作如下:(1)针对现有云数据中心主机故障检测效率及检测准确率较低,且故障信息较难获取等问题,对主机资源数据进行了深入的分析,提取当前负载模式下代表系统运行状态的关键资源度量进行监测,提出了基于改进一类支持向量机的云数据中心主机故障检测模型。该模型采用半监督的方法,使用正类样本就能够检测异常,根据样本到模型分类超平面的距离设计了一种故障识别方法。为了提高模型检测故障的能力,根据样本的异常度设计了一种样本权重分配策略,并使用基于OpenStack的云平台对提出的模型进行了对比实验验证;(2)根据主机故障检测的结果,分析数据中心可用服务器的故障特征以及资源信息,为了指导故障服务器上的虚拟机迁移到可靠性较高的服务器上,设计了一种迁移效用模型和目标服务器选择策略。为了保障迁移后的虚拟机自身可靠性以及服务等级协议SLA的约定,以故障主机上的虚拟机为博弈参与方,提出了基于完全信息动态博弈的虚拟机迁移算法,为待迁移虚拟机寻找尽可能使自身可靠性达到最高的服务器。通过基于CloudSim的仿真实验对提出的迁移算法进行了对比实验验证。论文最后设计并初步实现了一个面向云数据中心计算资源的可靠性保障软件,该软件包括资源监控模块,故障分析模块与迁移管理模块。测试实验结果表明,本文提出的模型与算法,能够根据物理服务器的资源信息及时、准确地对故障情况做出判断,并对虚拟机进行迁移,使得系统能快速恢复正常运行,能够保证较高的可靠性。
张小亚[5](2019)在《几类新型梯度算法的设计与收敛性研究》文中研究表明随着科学技术日新月异的发展,尤其是以互联网技术为代表的网络时代的到来,各应用领域涉及的优化问题数据规模愈加庞大。梯度类算法作为求解优化问题的一类普适性算法,因其低复杂度的计算形式和较为完善的理论基础得到了广泛的应用。研究新型梯度类算法具有重要的理论价值和应用前景。一方面,数据时代应用发展中对高效优化算法的追求要求我们设计高效的梯度算法格式;另一方面,新型梯度算法投入到实际应用中会遇到理论保证上的挑战,需要我们不断挖掘新的数学概念、开发新的证明工具、提出新的证明方法。结合优化问题的结构特征设计、分析新型梯度类算法将极大丰富现有优化算法的理论研究内容,同时给各应用领域中出现的优化问题提供新的求解思路。本文针对几类具有特殊结构的优化问题,设计了几种新型梯度算法,围绕着算法格式、理论分析、实验论证等方面进行了系统的研究。以下是本文的主要工作和创新点:1、针对一类带和函数的凸优化问题,设计了惯性加速的临近增量累积梯度迭代格式。本文针对带和函数的优化问题,提出了一类惯性临近增量累积梯度算法。分析了算法生成的目标函数值和迭代点在梯度Lipschitz连续性和强凸性的假设条件下的线性收敛性;其次弱化了强凸性条件,并用另一种基于Lyapunov函数的证明方法证明了惯性临近增量累积梯度算法的线性收敛性。最后通过两个仿真实例验证了算法的加速效果。2、针对一类不满足梯度Lipschitz连续性的非凸非光滑优化问题,设计了外推Bregman临近梯度迭代格式。本文引入外推格式以加速Bregman临近梯度算法,用于求解非Lipschitz连续的非光滑非凸问题。首先在一般假设条件下证明了BPGe算法生成序列的极限点都是原问题的稳定点。其次,进一步引入Kurdyka-(?)ojasiewicz条件后,证明了BPGe算法生成的整个序列收敛到原问题的稳定点。最后通过泊松线性逆问题和二次逆问题的实验验证了外推格式带来的加速效果。3、针对一类带耦合项的非凸非光滑优化问题,设计了两种交替极小化迭代算法格式。本文针对带耦合项的非凸优化问题,提出了两类新型的交替迭代梯度算法。第一种是非凸临近交替极小化方法,通过引入一个新的辅助变量,将原问题分裂为两个相对简单的子问题,并对每一个子问题利用临近点方法交替求解。理论上分析了在满足Kurdyka-(?)ojasiewicz性质时,算法生成的整个序列收敛至原问题的稳定点。第二种是Bremgan原对偶算法,通过引入一个对偶辅助变量,将原问题转化为鞍点问题,然后引入Bregman距离取代常见原对偶算法中的二次距离,理论上分析了该算法的收敛性。最后,用l0极小化问题验证了非凸临近交替极小化方法的有效性;用泊松去噪问题验证了Bremgan原对偶算法的有效性。4、针对求解非光滑凸优化问题的临近梯度算法,补充了其关于临近梯度范数的精确最弱线性收敛率的估计结果,改进了线性收敛率的证明。临近梯度算法是一种十分经典的算法,收敛性证明的研究结果已经十分深入。本文首先在梯度Lipschitz连续性和强凸性的假设条件下,建立了新的关于临近梯度范数的精确最弱线性收敛率估计,补充了现有理论结果。其次,改进了现有的下降引理,基于新的引理,在Polyak-(?)ojasiewicz不等式条件下改进了非强凸条件下目标函数值的线性收敛率结果。
汤明星[6](2019)在《面向大规模数据集的随机最优化方法关键技术研究》文中研究指明机器学习作为人工智能技术的核心支撑受到了广泛的关注。数据规模不断增长,对最优化方法求解机器学习模型带来了新的挑战。本文以提高随机最优化方法在大数据条件下的收敛速度和精度为目标,针对随机梯度降噪算法计算效率低、自适应梯度方法泛化能力低、随机拟牛顿方法收敛速度慢、基于随机梯度下降的Lookahead方法调参要求高等问题,从随机梯度下降算法的弹性降噪、自适应梯度方法的边界调度、随机拟牛顿方法的降噪加速、Lookahead方法的学习速率调度等方面展开研究。论文研究的主要内容包括以下几个方面:传统随机梯度降噪方法的实现需要维护一个辅助信息,处理大规模数据集时存在两个问题:(1)存储或计算开销过大;(2)导致频繁的磁盘IO。针对该问题,本文提出了一种基于数据子集和历史梯度信息的弹性降噪方法FVR-SGD,能够降低传统降噪方法的额外开销,提高内存效率。FVR-SGD算法在实现降噪时不需要计算或存储全梯度信息,而是基于每个迭代周期的历史梯度信息实现降噪。在每个迭代周期FVR-SGD算法无需处理整个数据集,而是可以根据内存的大小灵活的将数据集分割成多个子集,每个迭代周期只需要处理一个子集,从而降低了磁盘IO,提高计算效率。在基于历史信息和部分数据实现降噪的同时,我们仍然证明了FVR-SGD算法具有线性收敛速度,并给出了收敛的具体条件。实验表明,与传统降噪方法相比,FVR-SGD算法可以降低计算开销并弹性适应内存,还能提高模型收敛速度,在处理大规模数据或复杂参数模型时更具优势。自适应梯度方法在训练复杂神经网络模型时存在收敛精度低、泛化能力弱等问题,本文基于自适应梯度提出了边界调度算法Bsadam,能够通过对自适应梯度进行限制和调度来提高收敛精度和泛化能力。Bsadam算法分析了可能导致自适应梯度方法泛化能力降低的各种因素,并针对这些因素提出了优化方案。为了避免极端学习速率对自适应梯度方法的收敛造成不良影响,Bsadam算法为自适应梯度方法的学习速率设置了一个合理的边界,从而保证算的收敛性能。为了提高自适应梯度方法的收敛精度和泛化能力,Bsadam算法根据自适应梯度方法在迭代过程中每个阶段的不同需求对边界进行调度。Bsadam算法首先通过不断提高学习速率下界来使自适应梯度方法寻找更好的极小值,然后再使学习速率上界不断下降来保证算法的收敛性能。实验表明,Bsadam算法在保持自适应梯度方法较快收敛速度的同时,还能提高自适应梯度方法的收敛精度,使自适应梯度方法具备更好的泛化能力。随机拟牛顿方法存在构建向量序列不稳定、算法收敛速度慢等问题,本文提出了一种基于多种降噪方法的随机拟牛顿加速方法,可以提高拟牛顿方法在随机迭代过程中梯度估计的准确性,有效提高构建向量序列的稳定性。随机拟牛顿方法由于相邻的两次迭代使用不同的数据来进行梯度估计,可能导致相邻两次计算得到的梯度存在较大的差异,从而使基于两次梯度差和权重差得到的向量序列出现抖动,进而导致算法更新方向出现偏差。本文提出了一个能够结合使用多种降噪方法的随机拟牛顿算法框架,在这个框架内随机拟牛顿算法可以使用SVRG、SAGA、SAG等多种降噪方法,使得算法在迭代时即使使用不同的数据进行梯度估计,也不会出现大的抖动,从而保证了更新方向的稳定。本文还进一步提出了一个无需额外计算和存储开销的轻量降噪方法,使算法在处理大规模数据集时更加高效。实验表明,基于降噪的随机拟牛顿加速方法能够在大数据集上取得明显的加速效果。基于随机梯度下降的Lookahead方法存在需要手工调参,收敛速度慢等问题,本文提出了一种基于学习速率调度的Lookahead加速方法,可以避免手工调参并能够提高收敛速度。使用学习速率调度只需要明确一个合理的学习速率区间,而不必寻找最优的学习速率,可以避免额外的调参开销。学习速率调度有循环调度和单周期调度两种方案。循环调度将整个迭代过程分为多个循环周期,每个循环周期内使学习速率由高至低变化,使Lookahead算法在每个循环周期内都具备越过局部极小值,收敛到附近最优解的能力,通过多个循环周期的训练最终使算法找到一个较好的极小值点。单周期调度将迭代过程分为两个阶段,第一个阶段使学习速率由低至高变化,是Lookahead算法能够更快的越过局部最优解,寻找更合适的全局最优解,第二个阶段通过不断降低学习速率使算法能够收敛的找到的全局最优解。实验表明,基于学习速率调度的Lookahead加速方法在收敛速度和收敛精度方面都得到了提升。
薄纯娟[7](2019)在《基于空谱联合模型的高光谱图像分类方法研究》文中提出高光谱图像分类问题是高光谱遥感领域中非常重要的研究课题,在民用和军用等方面均具有广泛的实用价值和应用前景。如何有效地综合考虑像元的光谱特征信息和空间结构信息是提升高光谱图像分类算法精度的关键。本文对基于空谱联合模型的高光谱分类算法进行了深入研究,主要创新工作如下:首先,本文将最近子空间算法扩展到高光谱图像分类领域,提出了联合鲁棒最近子空间分类模型。该算法通过在联合子空间模型中引入加性稀疏噪声来考虑邻域像元矩阵中的异常噪声,并定义鲁棒最近子空间距离来度量邻域像元样本矩阵与每类训练样本集合间的差异。在此基础上,本文提出了鲁棒语义原型学习算法通过迭代优化的方式获得对训练样本更加有效的原型表示。实验结果表明,本文所提出的联合鲁棒最近子空间距离和鲁棒语义原型算法均能逐步提升高光谱图像分类算法精度。其次,本文针对如何有效获得及利用表示系数的问题,提出了基于两阶段空谱联合表示模型的高光谱分类框架。本文提出了联合协同表示模型和联合结构化稀疏表示模型,并给出了相应的优化求解方案。在此基础上,本文将上述模型获得的表示系数作为新的特征用来训练分类器模型。在测试过程中,将联合表示模型的分类概率输出和分类器模型的分类概率输出相融合,以获得最终的分类输出。实验结果表明,本章所提出的算法具有良好的精度优势和泛化能力。再次,本文通过引入集合到点的距离将传统K近邻算法扩展到高光谱图像分类领域,提出了基于空谱联合K近邻的高光谱分类框架。该算法定义了一种新颖的集合到点的距离以最小均方回归形式来刻画邻域样本集合到每个训练样本的距离。从子空间角度,该距离可以解释为训练样本点距离测试样本子空间的远近。随后,本文将上述距离和加权K近邻分类算法相结合提出最终算法框架,从而实现精确的高光谱图像分类。最后,本文将测试样本集合和每类训练集合矩阵分别看作两个凸包,并利用凸包表示模型来刻画两个集合之间的距离,提出了基于集合度量的高光谱图像分类算法。与本文提出的其他算法相比,该算法能够同时建模邻域像元的空谱信息和训练样本的结构信息。此外,本文还提出了一种基于能量最小化的标签优化算法,该算法针对传统高光谱分类算法获得的分类概率进行优化,从而进一步提升分类算法的精度。
杨阳[8](2019)在《物联网中数据压缩与资源分配的研究》文中进行了进一步梳理随着嵌入式终端和新一代通信技术的发展,物联网作为未来普适计算的载体,其应用前景已在智能家居、智慧城市等领域展露头角。未来物联网将实现人、机、物的信息共享,促进信息世界与物理世界更加紧密的深度融合。目前,物联网中很大一部分设备因其移动性或部署地理位置原因,不得不采用电池供电。对于这部分物联网设备而言,能量消耗便成为了物联网系统设计首要关注的问题。随着网络规模增大,网络中的节点越来越多,且单个节点感知的信息越来越丰富,整个网络中的信息量急剧增长。有限的物理资源与快速增长的感知数据之间的矛盾成为这类低功耗协同感知网络中亟待解决的问题。另一方面,随着物联网在各行各业的广泛应用,用户的服务需求也越来越复杂多样,未来物联网的发展要求网络承载个性化、智慧化的服务。当前,基于不同业务,人们可能在同一区域内部署多个物联网,这种情况造成了资源重复建设和资源利用率低下。基于上述存在的问题,本文进行了相关研究:针对物联网中的感知数据具有冗余性、海量性的特点,研究了去数据压缩和去冗余方案,旨在降低网络内数据量,延长网络的生命周期。同时,为了提高网络物理资源利用率和提供多元化服务,本文还研究了物联网的虚拟化问题。具体研究内容和贡献包括以下部分:一、针对多个节点间因感知区域重叠产生的冗余数据,本文采用分布式信源编码对冗余数据进行聚合。然而,确定每个感知节点的最低编码速率是一件非常困难的事情,因为多个节点的编码速率所要满足的Spelian-Wolf约束集,随感知节点数量的增加呈指数级增长。本文联合考虑了编码速率分配问题和流调度问题,提出了一个跨层优化的框架。通过分析约束集的凸性,证明了该优化框架是一个凸优化问题。为了解决约束集增长问题,本文对原约束集进行了适当松弛,并证明了等价性。随后采用对偶分解,分布式地解出每个节点的最优源编码速率和每条链路上的最优流调度。与固定编码速率方案相比较,本文提出的动态编码速率分配方案能有效地降低数据冗余度和网络中的总数据量,有效延长网络生存周期。二、在多媒体物联网中,传统的视频编码方案无法在这些资源受限的节点上执行。本文研究了基于压缩感知的两层编解码方案及信号稀疏矩阵的构建问题。该方案“简单编码——复杂解码”的架构非常适合物联网。通过两次编码,最大程度地降低了数据量。为了成功地解码压缩后的数据,在第一层解码中,利用单个节点帧间相关性,在解码端构造了第一组稀疏基,该组稀疏基间接使用了运动估计和运动补偿。在第二层解码中,利用相邻节点之间的空间相关性,通过使用字典学习方法构造了第二组稀疏基。该方法根据恢复的质量决定是否重新学习以更新稀疏基。最终汇聚节点使用两组稀疏基来执行l1范数最小化问题,为每个节点重构原始视频。归功于本文构造的稀疏基,该框架具有较高的压缩率和弹性,且稀疏基提供了更好的稀疏表达。三、现有的物联网仅作为信息采集和传输渠道,服务与网络功能都位于同一套系统内。为了提高网络物理资源利用率和满足不同服务需求,本文研究了物联网的虚拟化和虚拟物联网的嵌入问题。首先描述了采用轻量级虚拟化技术的整体框架,该框架将服务与具体物理网络相剥离,基础网络设施被看作服务池,而不仅是数据传输通道。为解决虚拟物联网的嵌入问题,本文提出了实时处理模型和批处理模型。模型的目标是最大化网络资源利用率和提高物联网服务提供商的收入。在这两类模型中,考虑了多种类型的资源分配和虚拟路径的建立。为了允许多个虚拟节点在同一物理节点上共存,本文还改进了传统的流守恒定律。为了高效求解这两个模型所对应的NP-Hard问题,本文提出了多个启发式算法在多项式时间内寻找次优解。经验证,本文的模型和算法在请求接受率、服务提供商利润和资源利用率方面优于现有方案。
申小龙[9](2019)在《面向大规模应用的多计算平台并行优化关键技术研究》文中指出高性能计算机的出现和快速发展,使其被广泛应用于云计算、安全、大数据处理等领域。据统计大数据处理占据了46%的份额位居榜首。存储结构的复杂多样,计算机体系结构的多样性以及大数据处理问题体量大、数据复杂多样等特点,高性能计算机在大数据处理领域的应用面临着巨大的挑战。本文主要研究多种存储结构下不同应用场景的异构并行算法和优化技术,选取了大数据处理中的迭代算法、高吞吐率需求、大规模网络融合三种典型的应用问题进行研究,分别从存储、通信、任务划分、并行性、矩阵向量运算、CPU+GPU异构等角度对不同类型的应用场景的并行算法和优化技术进行研究。本文的主要创新点概括如下:(1)提出了一种基于多级存储的并行SNF算法针对生物医学领域样本规模大、内存需求高的相似网络融合(SNF:Similar Network Fusion)算法,提出了一种基于分层存储的CPU+GPU异构并行优化算法para SNF(Parallel SNF)算法,通过矩阵/向量分块等方式提高了算法的Cache命中率;通过采用基于SSD+内存+缓存的三级存储模型,大大提高了SNF算法的可扩展性。实验结果表明,para SNF算法运算速度快、可扩展性高。(2)提出了一种无数据相关的高吞吐率异构并行指纹匹配算法针对数据库规模越来越大、实时性要求高、识别算法不断改进、存在较高的数据并发度的生物识别系统,本文以指纹识别为例,提出了一种优化的指纹识别系统框架。针对系统中的指纹匹配这一热点问题选取多核CPU+众核GPU的异构系统,从指纹模板的存储顺序、任务的调度、CUDA Stream等多个角度对匹配过程进行优化。实验结果表明,基于CPU+GPU异构的指纹匹配算法运算速度快,吞吐率高,能够满足系统实时性的要求。(3)提出了一种基于异步规约通信的分布式存储迭代并行优化算法本文以大规模三维重建中的SBA(Sparse Bundle Adjustment)算法为例进行研究,针对SBA算法在迭代优化过程中数据规模大、运算量大、存储需求高等问题,提出了一种与BA问题无关的分布式任务分配方案,并且对算法中的关键步骤进行多核并行优化,针对问题中的方程组求解问题,提出了一种基于异步规约通信的分布式DSBA(Distributed Sparse Bundle Adjustment)算法(A-DSBA:Asynchronous Sparse Bundle Adjustment)。大量的实验表明,本文提出的算法在保持算法精度的前提下,可扩展性高、运算速度快。
李路长[10](2019)在《高通量超分辨定位成像中的实时图像处理及质量控制》文中认为超分辨定位成像通过相对简单的成像系统结构和实验操作流程实现了纳米量级的空间分辨率,成为生物医学研究中重要的工具。过去,超分辨定位成像的应用通常局限于成像单个、小于一个完整哺乳动物细胞大小的成像视场。近些年来,研究人员尝试将超分辨定位成像应用于高通量成像。通过成像数百个,甚至上万个成像视场,高通量超分辨定位成像能够提供丰富的时间和空间信息,从而便于测试不同的实验条件、探测低概率事件、对细胞结构进行无偏的研究等。然而,超分辨定位成像具有数据量大和计算强度高的特点。高通量超分辨定位成像更大的视场面积、更高的激发密度导致数据计算强度远远超出了现有方法实时处理的能力,因此现有方法无法与高通量成像所需的全自动图像采集和分析相结合。此外,目前缺乏有效的手段保证高通量成像大量成像视场之间的质量均匀性。针对上述问题,本文开发一整套适用于高通量超分辨定位成像的实时、高精度图像处理和质量控制算法。具体内容如下:(1)实时稀疏分子定位算法。本文对极大似然估计定位算法(MLE)的数学模型进行改进,结合其他多种优化策略和图形处理器(GPU)加速,在不损失定位精度的前提下,将定位速度相比目前最快的MLE定位算法提高一个数量级,满足基于科学级互补金属氧化物半导体(sCMOS)相机的200μm×200μm视场和10 ms曝光时间成像的实时定位需求。此外,本文还开发了具有完整图像处理流程的ImageJ插件QCSTORM。该插件可以实现实时图像预处理和分子识别、超分辨图像渲染和统计信息分析。结果表明,QC-STORM的整体速度比同类软件提升了两个数量级。(2)实时高密度分子定位算法。本文开发了实时的加权MLE定位算法和多分子MLE定位算法,并采用了分而治之的策略将荧光分子子区域分配给不同的定位算法进行处理。本文提出的高密度分子定位算法获得了与同类算法相近的定位精度和分子识别率,并在速度上获得三到四个数量级的提升,实现了100μm×100μm视场和10 ms曝光时间成像的高密度成像数据实时处理。(3)实时质量控制方法。本文基于泊松分布,对定位成像的随机激发过程进行建模,并将整数维度的成像结构模型推广到分数维,开发了不依赖人为设定参数的定位密度和Nyquist分辨率计算方法。结合定位精度和Nyquist分辨率,本文开发了实时的合成空间分辨率计算方法,称为ROMP,能够实现基于sCMOS相机100μm×100μm视场和10 ms曝光时间成像的实时处理。基于实时定位密度反馈控制和ROMP分辨率监测,本文实现了视场之间均匀的空间分辨率。综上,本文发展了适用于高通量超分辨定位成像的实时图像处理和质量控制方法。本文发展的方法能够降低高通量超分辨定位成像的使用难度,显着提高用户工作效率,并为后续的生物医学应用铺平了道路。
二、Palm内存空间最优化(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、Palm内存空间最优化(论文提纲范文)
(1)多尺度形态学手掌识别系统建模与实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 手掌研究背景与意义 |
1.1.1 手掌研究背景 |
1.1.2 手掌研究意义和应用价值 |
1.2 手掌研究国内外现状 |
1.2.1 手掌图像的采集 |
1.2.2 手掌图像的预处理 |
1.2.3 手掌图像特征提取 |
1.3 研究的创新点 |
1.4 主要内容与结构安排 |
第2章 基于IoT架构的手掌识别系统建模 |
2.1 手掌纹理采集与分析装置设计 |
2.2 手掌识别系统开发平台 |
2.3 试验与测试 |
2.4 本章小结 |
第3章 多尺度手掌图像分析 |
3.1 轮廓波变换与小波变换 |
3.2 多尺度特征融合算法分析 |
3.3 手掌图像多尺度分析 |
3.3.1 构造离散域滤波器 |
3.3.2 拉普拉斯金字塔框架 |
3.3.3 迭代定向滤波器组 |
3.3.4 多尺度和方向分解:离散轮廓波变换 |
3.4 本章小结 |
第4章 形态学手掌图像识别研究 |
4.1 手掌图像形态学变换处理基本原理 |
4.1.1 数学形态学手掌图像处理 |
4.1.2 手掌图像形态学处理 |
4.2 手掌图像的自适应数学形态学分析 |
4.2.1 自适应数学形态学基本原理 |
4.2.2 数学形态学自适应边缘连接算法 |
4.3 手掌图像多尺度形态学边缘分析 |
4.4 本章小结 |
第5章 多尺度形态学手掌识别算法实现 |
5.1 算法设计 |
5.1.1 多尺度手掌图像细节增强 |
5.1.2 手掌图像ROI预处理 |
5.1.3 特征提取与构造特征向量 |
5.2 试验过程 |
5.2.1 手掌图像数据库选取 |
5.2.2 示例图像纹理特征提取 |
5.2.3 被识别测试图像纹理特征与识别 |
5.3 实验结论 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 未来展望 |
参考文献 |
攻读学位期间获得与学位论文相关的科研成果目录 |
致谢 |
(2)基于RGB视频流的实时动态手势识别的研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外的研究现状 |
1.2.1 网络结构探索 |
1.2.2 数据扩充 |
1.2.3 模态融合 |
1.3 研究内容及创新点 |
1.4 论文组织结构 |
第二章 相关研究概述 |
2.1 动作识别研究 |
2.1.1 基于二维卷积神经网络的动作识别算法 |
2.1.2 基于三维卷积神经网络的动作识别算法 |
2.2 手势数据集 |
2.2.1 nvGesture |
2.2.2 EgoGesture |
2.2.3 Jester |
2.3 三维卷积神经网络 |
2.3.1 基本原理 |
2.3.2 经典3D卷积网络 |
2.4 光流提取算法 |
2.4.1 基本原理 |
2.4.2 TV-L1光流提取算法 |
2.5 深度强化学习 |
2.5.1 强化学习基本原理 |
2.5.2 深度强化学习算法分类 |
第三章 基于类光流网络TVNet的多模态协作训练 |
3.1 引言 |
3.2 RGB视频帧光流提取 |
3.2.1 视频帧稀疏采样 |
3.2.2 基于TV-L1算法的光流提取 |
3.2.3 基于TV-L1的类光流学习网络 |
3.3 TVMT训练架构设计与实现 |
3.3.1 多模态训练架构概述 |
3.3.2 TVMT训练架构 |
3.4 实验及分析 |
3.4.1 类光流特征提取效果可视化 |
3.4.2 不同3D CNN模型表现对比 |
3.4.3 TVMT与当前先进方法对比 |
3.5 本章小结 |
第四章 基于动态阈值的滑动窗口双网络在线手势识别 |
4.1 引言 |
4.2 SWORS在线识别架构 |
4.2.1 滑动窗口 |
4.2.2 手势检测网络 |
4.2.3 手势分类网络 |
4.2.4 检测结果后验处理模块 |
4.2.5 单次激活模块 |
4.3 基于动态阈值的DtSWORS系统 |
4.3.1 端到端训练架构 |
4.3.2 特征状态 |
4.3.3 动作映射 |
4.3.4 奖励函数 |
4.3.5 网络架构及原理 |
4.4 实验及分析 |
4.4.1 实验设置 |
4.4.2 评估指标 |
4.4.3 实验结果及分析 |
4.5 本章小结 |
第五章 总结与展望 |
5.1 工作总结 |
5.2 未来展望 |
参考文献 |
致谢 |
攻读学位期间取得的研究成果 |
(3)几种局部优化方法在全波形反演中的对比研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 选题的目的及意义 |
1.2 国内外研究现状 |
1.2.1 正演模拟发展历史与现状 |
1.2.2 全波形反演发展历史与现状 |
1.3 全波形反演中的各种最优化理论 |
1.4 论文的主要研究内容 |
1.5 论文的组织结构 |
第二章 正演模拟 |
2.1 概述 |
2.2 交错网格有限差分方法原理 |
2.2.1 差分逼近 |
2.2.2 交错网格有限差分法 |
2.3 稳定性条件 |
2.4 数值频散 |
2.5 边界条件 |
2.6 结论 |
第三章 全波形反演 |
3.1 反演方法基本概述 |
3.1.1 全波形反演概述 |
3.1.2 全波形反演流程 |
3.2 全波形反演基本原理 |
3.2.1 目标函数的建立 |
3.2.2 梯度的求取 |
3.2.3 步长的求取 |
3.3 模型试算 |
3.4 结论 |
第四章 最优化方法 |
4.1 最速下降法 |
4.2 共轭梯度法 |
4.3 L-BFGS方法 |
4.4 模型试算 |
4.5 结论 |
第五章 基于CUDA的并行计算 |
5.1 CUDA硬件基础 |
5.2 CUDA软件基础 |
5.3 数值模拟对比 |
5.4 结论 |
结论 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
(4)面向云数据中心计算资源的可靠性保障技术研究(论文提纲范文)
摘要 |
ABSTRACT |
注释表 |
缩略词 |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 云计算可靠性保障技术 |
1.2.2 云计算故障检测技术国内外研究现状 |
1.2.3 虚拟机迁移技术国内外研究现状 |
1.3 论文主要研究工作 |
1.4 论文组织结构 |
第二章 面向云数据中心计算资源的可靠性保障软件的设计 |
2.1 保障云计算系统可靠性的设计原则 |
2.2 云计算系统可靠性评估 |
2.3 面向云数据中心计算资源的可靠性保障软件的需求概述 |
2.3.1 资源监控模块功能需求 |
2.3.2 故障分析模块功能需求 |
2.3.3 迁移管理模块功能需求 |
2.4 面向云数据中心计算资源的可靠性保障软件总体结构设计 |
2.5 面向云数据中心计算资源的可靠性保障软件流程设计 |
2.5.1 总体流程设计 |
2.5.2 故障分析阶段流程设计 |
2.5.3 迁移管理阶段流程设计 |
2.6 本章小结 |
第三章 基于改进一类支持向量机的云计算故障检测算法 |
3.1 基于改进一类支持向量机的主机故障检测模型 |
3.1.1 关键资源度量提取 |
3.1.2 故障检测与识别模型 |
3.1.3 权重分配策略 |
3.1.4 基于量子粒子群优化的参数寻优算法 |
3.2 基于HFDIOCSVM的主机故障检测算法 |
3.3 实验与结果分析 |
3.3.1 实验设计 |
3.3.2 实验结果分析 |
3.4 本章小结 |
第四章 基于完全信息动态博弈的虚拟机迁移算法 |
4.1 完全信息动态博弈理论 |
4.2 故障预测 |
4.3 虚拟机迁移效用模型 |
4.3.1 可靠性开销 |
4.3.2 SLA效用模型 |
4.3.3 能耗开销 |
4.4 基于完全信息动态博弈的虚拟机迁移算法 |
4.4.1 目标服务器选择 |
4.4.2 完全信息动态博弈模型 |
4.4.3 VMMCIDG迁移算法 |
4.5 仿真实验与分析 |
4.5.1 实验环境 |
4.5.2 故障预测实验与分析 |
4.5.3 SLA性能测试实验与分析 |
4.5.4 能耗测试实验与分析 |
4.5.5 可靠性测试实验与分析 |
4.6 本章小结 |
第五章 面向云数据中心计算资源的可靠性保障软件的实现 |
5.1 开发环境部署 |
5.2 可靠性保障软件实现 |
5.2.1 数据结构设计 |
5.2.2 资源监控模块的实现 |
5.2.3 故障分析模块的实现 |
5.2.4 迁移管理模块的实现 |
5.3 测试实验与分析 |
5.3.1 故障分析模块测试 |
5.3.2 迁移管理模块测试 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 论文工作总结 |
6.2 进一步研究工作 |
参考文献 |
致谢 |
在学期间的研究成果及发表的学术论文 |
(5)几类新型梯度算法的设计与收敛性研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.1.1 选题背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 梯度算法的临近格式 |
1.2.2 梯度算法的Bregman临近格式 |
1.2.3 梯度算法的增量格式 |
1.2.4 梯度算法的交替迭代格式 |
1.2.5 梯度算法的加速格式 |
1.3 本文研究内容 |
第二章 基础知识回顾 |
2.1 基础定义 |
2.2 Moreau临近点算子 |
2.3 Bregman临近点算子 |
第三章 惯性临近增量累积梯度算法 |
3.1 iPIAG算法描述 |
3.2 收敛性分析 |
3.2.1 强凸性条件下的线性收敛性 |
3.2.2 二次增长条件下的线性收敛性 |
3.3 数值试验 |
3.3.1 仿真算例 |
3.3.2 Lasso问题 |
3.4 本章小结 |
第四章 外推Bregman临近梯度算法 |
4.1 BPGe算法描述 |
4.2 收敛性分析 |
4.3 数值实验 |
4.3.1 泊松线性逆问题 |
4.3.2 二次逆问题 |
4.4 本章小结 |
第五章 两类交替迭代算法 |
5.1 非凸临近交替极小化算法 |
5.1.1 PALM算法描述 |
5.1.2 收敛性分析 |
5.2 Bregman原对偶算法 |
5.2.1 PDBreg算法描述 |
5.2.2 收敛性分析 |
5.3 数值实验 |
5.3.1 高斯去噪问题求解 |
5.3.2 泊松去噪问题求解 |
5.4 本章小节 |
第六章 临近梯度算法的收敛性改进 |
6.1 临近梯度算法 |
6.1.1 两个重要引理 |
6.2 理论分析 |
6.2.1 主要结论 |
6.2.2 推论 |
6.3 小结 |
第七章 总结与展望 |
7.1 本文工作总结 |
7.2 未来工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(6)面向大规模数据集的随机最优化方法关键技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.1.1 人工智能飞速发展 |
1.1.2 最优化算法的发展 |
1.1.3 研究意义 |
1.2 研究现状 |
1.2.1 最优化方法框架 |
1.2.2 常见的最优化算法 |
1.2.3 最优化算法面临的挑战 |
1.3 最优化算法存在的问题 |
1.4 本文工作 |
1.5 论文结构 |
第二章 相关工作 |
2.1 基本随机最优化算法 |
2.1.1 随机梯度下降算法 |
2.1.2 学习速率选择 |
2.1.3 基本加速方法 |
2.1.4 其他形式的随机方法 |
2.2 降噪加速方法 |
2.3 自适应梯度加速方法 |
2.4 牛顿和拟牛顿加速方法 |
第三章 基于弹性降噪的随机梯度加速方法研究 |
3.1 引言 |
3.2 FVR-SGD算法 |
3.2.1 弹性降噪的实现 |
3.2.2 FVR-SGD算法收敛性分析 |
3.3 实验结果与分析 |
3.3.1 单机FVR-SGD算法结果分析 |
3.3.2 分布式FVR-SGD算法结果分析 |
3.4 本章小结 |
第四章 基于自适应梯度的边界调度方法研究 |
4.1 引言 |
4.2 Bsadam边界调度算法 |
4.2.1 泛化相关因素研究 |
4.2.2 边界确定方法 |
4.2.3 边界调度方法 |
4.2.4 算法细节描述 |
4.3 实验结果与分析 |
4.3.1 实验环境 |
4.3.2 图像分类 |
4.3.3 语言模型 |
4.3.4 不同调度方法的对比 |
4.4 本章小结 |
第五章 随机拟牛顿算法加速方法研究 |
5.1 引言 |
5.2 随机拟牛顿加速算法 |
5.2.1 基于传统降噪的加速方法 |
5.2.2 基于轻量降噪的加速方法 |
5.3 实验结果与分析 |
5.3.1 实验设置 |
5.3.2 对比结果分析 |
5.4 本章小结 |
第六章 基于学习速率调度的Lookahead加速方法研究 |
6.1 引言 |
6.2 基于学习速率调度的Lookahead加速方法 |
6.2.1 循环调度 |
6.2.2 单周期调度 |
6.3 实验结果与分析 |
6.3.1 实验设置 |
6.3.2 MNIST数据集 |
6.3.3 CIFAR-10 数据集 |
6.3.4 CIFAR-100 数据集 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 工作总结 |
7.2 工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(7)基于空谱联合模型的高光谱图像分类方法研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 高光谱图像分类概述 |
1.3 国内外研究现状 |
1.4 相关算法综述 |
1.4.1 基于空谱特征提取的高光谱图像分类 |
1.4.2 基于核融合的高光谱图像分类 |
1.4.3 基于半监督学习的高光谱图像分类 |
1.4.4 基于联合表示模型的高光谱图像分类 |
1.5 实验数据集 |
1.5.1 Indian Pines数据集 |
1.5.2 Univers of Pavia数据集 |
1.5.3 Kennedy Space Center数据集 |
1.6 评估准则 |
1.6.1 混淆矩阵 |
1.6.2 整体精度 |
1.6.3 平均精度 |
1.6.4 Kappa系数 |
1.7 本文研究内容与组织结构 |
2 基于鲁棒联合最近子空间的高光谱图像分类 |
2.1 引言 |
2.2 最近子空间算法 |
2.3 鲁棒联合最近子空间 |
2.3.1 联合最近子空间 |
2.3.2 鲁棒联合最近子空间 |
2.4 鲁棒语义原型学习 |
2.5 总体分类框架 |
2.6 实验结果及分析 |
2.6.1 Indian Pines数据集上不同算法对比 |
2.6.2 参数讨论与分析 |
2.6.3 University Pavia和Kennedy Space Center数据集上不同算法对比 |
2.7 本章小结 |
3 基于两阶段空谱联合表示模型的高光谱图像分类 |
3.1 引言 |
3.2 联合稀疏表示模型 |
3.3 联合协同表示模型 |
3.4 联合结构化稀疏表示模型 |
3.5 两阶段空谱联合表示模型 |
3.6 实验结果及讨论 |
3.6.1 Indian Pines数据库上不同算法对比 |
3.6.2 本章算法分析与讨论 |
3.6.3 University of Pavia和Kennedy Space Center数据集上不同算法对比 |
3.7 本章小结 |
4 基于空谱联合K近邻的高光谱图像分类 |
4.1 引言 |
4.2 最近邻和K近邻算法 |
4.2.1 最近邻算法 |
4.2.2 K近邻算法 |
4.2.3 加权K近邻算法 |
4.2.4 基于K近邻的高光谱图像分类 |
4.3 空谱联合K近邻算法 |
4.3.1 基本思想 |
4.3.2 空谱K近邻分类框架 |
4.4 实验结果及分析 |
4.4.1 Indian Pines数据集上不同算法对比 |
4.4.2 参数分析与相关算法对比 |
4.4.3 University of Pavia数据集上不同算法对比 |
4.5 本章小结 |
5 基于集合度量和标签优化的高光谱图像分类 |
5.1 引言 |
5.2 基于集合度量的高光谱图像分类模型 |
5.2.1 集合到集合度量模型 |
5.2.2 凸包表示模型优化求解 |
5.2.3 有效子集选择 |
5.3 基于流形正则的标签优化算法 |
5.4 实验结果及分析 |
5.4.1 Indian Pines数据集上不同算法对比 |
5.4.2 参数分析与讨论 |
5.4.3 University of Pavia和Kennedy Space Center数据集上不同算法对比 |
5.5 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 创新点 |
6.3 展望 |
参考文献 |
附录A Indian Pines数据集上不同算法对比结果 |
附录B University of Pavia数据集上不同算法对比结果 |
附录C Kennedy Space Center数据集上不同算法对比结果 |
攻读博士学位期间科研项目及科研成果 |
致谢 |
作者简介 |
(8)物联网中数据压缩与资源分配的研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题背景与意义 |
1.1.1 低功耗物联网的基本概念 |
1.1.2 文本研究侧重点及意义 |
1.2 国内外研究现状 |
1.2.1 有关物联网数据聚合的研究 |
1.2.2 有关物联网多媒体数据编码的研究 |
1.2.3 有关物联网虚拟化的研究 |
1.3 存在的挑战和本文的研究内容 |
1.4 论文组织安排 |
第二章 基础理论及相关知识 |
2.1 分布式信源编码理论 |
2.2 凸优化理论 |
2.2.1 凸集、凸函数与凸优化问题 |
2.2.2 对偶函数 |
2.2.3 对偶问题 |
2.2.4 KKT条件 |
2.3 压缩感知理论 |
2.3.1 压缩感知基础 |
2.3.2 信号的稀疏表达 |
2.3.3 常见测量矩阵 |
2.3.4 信号重构算法 |
2.4 本章小节 |
第三章 基于分布式源编码的数据聚合及编码速率分配 |
3.1 前言 |
3.2 问题描述及系统建模 |
3.2.1 编码速率问题的挑战 |
3.2.2 凸多面体 |
3.2.3 路由模型和流守恒公式 |
3.2.4 优化目标 |
3.2.5 优化问题表述 |
3.3 问题重构和集中式解决方案 |
3.3.1 问题重构 |
3.3.2 Spelian-Wolf约束的松弛 |
3.4 对偶分解及分布式求解 |
3.4.1 对偶问题和对偶分解 |
3.4.2 源编码速率分配子问题的分布式求解 |
3.4.3 最优流调度子问题及拉格朗日乘子的更新 |
3.4.4 跨层框架和分布式算法 |
3.5 仿真结果 |
3.5.1 不同数据聚合方法的比较 |
3.5.2 网络密度对数据量的影响 |
3.5.3 松弛约束与原始约束的计算成本比较 |
3.5.4 分布式对偶算法的收敛性 |
3.5.5 流调度和拉格朗日乘子的更新 |
3.5.6 网络生命周期 |
3.6 本章小结 |
第四章 基于压缩感知的低功耗编解码方案与稀疏基构建 |
4.1 前言 |
4.2 基于压缩感知的双层编解码框架 |
4.2.1 框架及编码流程 |
4.2.2 双层编码框架的特点 |
4.3 时域层的解码与稀疏基的构造 |
4.3.1 关键帧的编解码 |
4.3.2 压缩感知帧的解码与重构流程 |
4.4 空域层的解码与稀疏字典学习 |
4.4.1 使用稀疏字典学习的动机 |
4.4.2 稀疏字典的训练与第二层解码 |
4.5 性能评估 |
4.5.1 时域层编解码性能的评估 |
4.5.2 空间域编解码性能的评估 |
4.5.3 最终重构质量的对比 |
4.6 本章小节 |
第五章 物联网的虚拟化及虚拟请求的资源分配 |
5.1 引言 |
5.2 物联网虚拟化框架 |
5.3 VIoT映射问题的描述及建模 |
5.3.1 网络模型和资源表示 |
5.3.2 决策变量和流变量 |
5.3.3 改进的流守恒定律和虚拟路径 |
5.3.4 地理位置约束 |
5.3.5 实时处理模型RVIM |
5.3.6 批处理模型BVIM |
5.4 BVIM问题的转化 |
5.4.1 NP难证明 |
5.4.2 BVIM问题的松弛与近似 |
5.5 RVIM的快速解决方案 |
5.5.1 IISP利润分析及启发式算法 |
5.5.2 算法探讨 |
5.5.3 复杂度分析 |
5.6 性能评估 |
5.6.1 仿真设置 |
5.6.2 性能指标 |
5.6.3 计算时间 |
5.6.4 接受率 |
5.6.5 瞬时利润 |
5.6.6 利用率 |
5.7 本章小结 |
第六章 总结与展望 |
6.1 本文工作总结 |
6.2 研究展望 |
参考文献 |
致谢 |
攻读博士期间以第一作者发表的论文 |
攻读博士学位期间参与的科研项目 |
攻读博士学位期间参加的专利申请 |
附录A 索引 |
A.1 定理 3.3.2 的证明 |
(9)面向大规模应用的多计算平台并行优化关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.1.1 高性能计算的发展和应用 |
1.1.2 大规模应用的特点分析 |
1.2 并行计算基础 |
1.2.1 并行计算机的分类 |
1.2.2 并行计算的设计原则和方法 |
1.2.3 并行计算的性能评价指标 |
1.3 处理器结构的发展 |
1.3.1 CPU的发展 |
1.3.2 GPU的发展 |
1.3.2.1 GPU架构的发展 |
1.3.2.2 GPU存储体系 |
1.3.3 异构系统的发展 |
1.4 大规模应用领域并行计算发展面临的挑战 |
1.5 本文主要研究内容及其创新点 |
1.6 论文的组织结构 |
第二章 面向聚合数据类型大规模基因组的SNF算法在通用计算平台的并行算法与优化技术 |
2.1 引言 |
2.2 相关研究 |
2.2.1 基于多核CPU的并行优化技术 |
2.2.2 存储器的发展和分类 |
2.2.3 并行运算库简介 |
2.2.4 生物医学发展的现状及其存储需求 |
2.3 相似网络融合算法背景知识 |
2.3.1 SNF算法原理 |
2.3.2 SNF算法的存储需求及其热点分析 |
2.3.2.1 串行SNF算法的存储需求 |
2.3.2.2 串行SNF算法的存储特点 |
2.3.2.3 串行SNF算法热点分析 |
2.4 并行SNF算法(para SNF)和优化技术 |
2.4.1 存储优化 |
2.4.2 基于并行库的SNF算法重构 |
2.4.3 基于分级存储的并行SNF优化 |
2.4.3.1 基于分级存储的SNF算法 |
2.5 实验结果 |
2.5.1 实验环境 |
2.5.2 实验数据 |
2.5.3 评价指标 |
2.5.4 并行相似网络融合算法性能分析 |
2.5.4.1 归一化互信息(NMI)分析 |
2.5.4.2 存储空间需求和性能分析 |
2.5.4.3 加速比 |
2.6 总结和展望 |
第三章 面向高吞吐率生物识别应用在异构计算平台的并行算法和优化技术 |
3.1 引言 |
3.2 相关工作 |
3.3 背景知识 |
3.3.1 指纹识别中的基础知识 |
3.3.1.1 指纹识别系统性能指标 |
3.3.1.2 指纹分类 |
3.3.1.3 指纹识别分类 |
3.3.2 指纹识别系统框架 |
3.3.3 指纹识别系统框架优化 |
3.3.4 指纹精匹配算法流程 |
3.4 基于GPU的指纹精匹配算法并行优化 |
3.4.1 任务调度优化 |
3.4.2 存储优化 |
3.4.3 CUDA Stream优化 |
3.5 基于多核CPU的指纹匹配算法并行优化 |
3.6 基于CPU+GPU异构的指纹匹配加速 |
3.7 实验结果与分析 |
3.7.1 实验平台 |
3.7.2 实验数据 |
3.7.3 串行程序最优化 |
3.7.4 基于GPU的指纹匹配算法吞吐率 |
3.7.5 基于CPU的指纹匹配算法吞吐率 |
3.7.6 基于CPU+GPU异构平台的指纹匹配算法吞吐率 |
3.8 小结 |
第四章 面向大规模三维重建应用的强迭代分布式并行算法和优化技术 |
4.1 引言 |
4.1.1 分布式计算及其编程简介 |
4.1.1.1 分布式存储系统及其特点 |
4.1.1.2 分布式计算及其特点 |
4.1.1.3 MPI简介 |
4.1.2 强迭代算法的发展历程 |
4.2 相关研究 |
4.3 背景知识 |
4.3.1 多视图三维重建模型 |
4.3.2 SFM算法简介 |
4.3.3 多视图三维重建的存储需求分析 |
4.3.4 Sparse Bundle Adjustment(SBA)原理 |
4.4 SBA算法分布式方案 |
4.4.1 SBA分布式方案综述 |
4.4.2 SBA算法的分布式存储方案选择 |
4.4.3 分布式SBA算法的数据集划分 |
4.5 DSBA关键步骤中的数据分布及其通信 |
4.5.1 数据初始化 |
4.5.2 Jacobian矩阵J的计算 |
4.5.3 计算J~TΣ_x~(-1)J+ μI,J~TΣ_x~(-1)? |
4.5.4 计算S和 e_a |
4.5.5 解方程Sδ_a=e_a,求δ_a |
4.6 基于循环分块的异步规约求解方程的DSBA方法 |
4.6.1 基于循环分块的分布式方程组求解 |
4.6.2 A-DSBA算法的数据分布和通信 |
4.6.3 A-DSBA的异步规约时序图 |
4.6.4 A-DSBA算法总结 |
4.7 实验结果与分析 |
4.7.1 实验环境 |
4.7.2 实验方案及结果分析 |
4.8 总结和展望 |
第五章 结论与展望 |
5.1 工作总结 |
5.2 工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(10)高通量超分辨定位成像中的实时图像处理及质量控制(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 超分辨荧光成像概述 |
1.2 超分辨定位成像概述 |
1.3 高通量超分辨定位成像 |
1.4 本文的主要工作 |
2 适用于稀疏分子的实时图像处理算法 |
2.1 引言 |
2.2 稀疏分子激发实时图像处理算法 |
2.3 实时图像处理插件 |
2.4 算法性能评测 |
2.5 本章小结 |
3 适用于高密度分子的实时图像处理算法 |
3.1 引言 |
3.2 高密度分子定位算法 |
3.3 算法性能评测 |
3.4 基于高密度成像提高成像通量 |
3.5 本章小结 |
4 高通量超分辨定位成像中的实时质量控制 |
4.1 引言 |
4.2 基于随机采样的定位密度计算 |
4.3 基于随机采样的合成空间分辨率计算 |
4.4 分辨率计算评价 |
4.5 实时成像质量控制 |
4.6 本章小结 |
5 总结与展望 |
5.1 工作总结 |
5.2 文章创新点 |
5.3 研究展望 |
致谢 |
参考文献 |
附录1 攻读博士学位期间发表的论文与研究成果 |
四、Palm内存空间最优化(论文参考文献)
- [1]多尺度形态学手掌识别系统建模与实现[D]. 朱志恒. 信阳师范学院, 2021(09)
- [2]基于RGB视频流的实时动态手势识别的研究[D]. 唐亚若. 北京邮电大学, 2021(01)
- [3]几种局部优化方法在全波形反演中的对比研究[D]. 袁子恒. 长安大学, 2020(06)
- [4]面向云数据中心计算资源的可靠性保障技术研究[D]. 张夏豪. 南京航空航天大学, 2020(07)
- [5]几类新型梯度算法的设计与收敛性研究[D]. 张小亚. 国防科技大学, 2019(01)
- [6]面向大规模数据集的随机最优化方法关键技术研究[D]. 汤明星. 国防科技大学, 2019(01)
- [7]基于空谱联合模型的高光谱图像分类方法研究[D]. 薄纯娟. 大连理工大学, 2019(06)
- [8]物联网中数据压缩与资源分配的研究[D]. 杨阳. 西南大学, 2019(05)
- [9]面向大规模应用的多计算平台并行优化关键技术研究[D]. 申小龙. 国防科技大学, 2019(01)
- [10]高通量超分辨定位成像中的实时图像处理及质量控制[D]. 李路长. 华中科技大学, 2019(03)