一、高速运动物体视觉图像的畸变(论文文献综述)
马璐[1](2021)在《多特征融合的高速运动物体跟踪方法研究》文中研究指明高速运动物体具有速度快、运动非线性等特点,对于高速运动物体的跟踪具有广泛的应用场景,如生物医学、能源化工、军事目标检测与拦截等。虽然目前众多学者在高速运动物体跟踪领域的研究取得了一定成果。Camshift是Meanshift的改进算法,解决了跟踪框无法变化的问题,同时利用HSV代替RGB,一定程度的解决了光线干扰的问题。但是对于高速运动物体的跟踪,使用Camshift算法会遇到两个问题,一是Camshift仅使用颜色直方图,对于无人机或者赛车等高速运动物体而言,当目标自身旋转时,对目标的跟踪效果变差;二是在实际应用中会出现目标被遮挡的问题,影响跟踪的准确度。为了解决上述问题,本文的主要研究内容如下:(1)研究了高速运动物体目标检测与跟踪的方法,设计了一个目标检测、跟踪以及测距的系统,系统包含视频流处理、单目测距、目标检测、目标跟踪等模块,实现了对高速运动物体的跟踪与测距。(2)针对与相机的距离较近的高速运动赛车,提出基于相机位姿角的相似三角形测距算法。通过降低相机姿态角对单目测距的影响,并结合高速运动物体的图像特点,解决了高速运动物体测距结果不准确的问题。实验结果表明,通过降低相机姿态角的影响可以有效的提高测距方法的准确性。(3)提出基于HLBP的Camshift跟踪算法。针对在跟踪高速运动物体时遇到的光线变化问题,将LBP特征与Haar特征融合得到HLBP特征,作为目标匹配的特征。当光线变化时,利用Camshift的颜色特征直方图解决跟踪失败问题;当目标发生旋转时,利用HLBP的旋转不变性解决跟踪失败问题,并采用自适应方法来针对两个特征的权值问题,实现目标跟踪。实验结果表明,采用HLBP特征可以有效的解决目标旋转的问题。(4)融合Kalman与Camshift算法。针对在跟踪高速运动物体时遇到的遮挡问题,采用卡尔曼滤波方法(Kalman)进行目标预测,并利用巴氏距离判断目标被遮挡的程度,解决了跟踪失败的问题。实验结果表明,室外环境下目标被遮挡时,Klaman滤波算法与Camshift算法的融合方法可以有效地提高算法的抗遮挡能力。(5)在高速运动物体测距与跟踪系统中,利用改进后的Camshift算法对无人机与赛车进行跟踪实验,在真实场景下对算法进行检验,证明了所提方法的有效性。
倪丽霞[2](2021)在《三维光场精准再现关键技术研究》文中认为三维显示技术能够为人们提供自然的三维视觉感知,符合人类对真实世界的观察体验。在诸多三维显示技术中,光场三维显示技术由于其显示质量的优越性而广受关注,这归功于该类系统对场景光场强大的再现能力,因而能提供舒适三维视觉体验所需的各类深度暗示。但是目前光场显示的质量仍受限于硬件系统对光场的构建精度以及作为显示图像源的光场精度。因此,从这两方面研究对三维光场进行高精度再现的技术对提升显示质量具有重要意义。本文首先对多投影显示光场在真实空间中的高精度再现技术进行研究。由于多投影系统的硬件组成较为庞大复杂,容易存在装配误差,而投影仪之间也可能存在各不相同的图像畸变,则实际显示的光场和理想光场之间将存在较大偏差,导致系统无法提供正确的三维视觉效果。针对该问题,本文提出了一种光场校正方法,用于提高实际显示光场的再现精度。该方法首先利用无需标定、自由摆放的相机对畸变光场进行自动化多视角采样。然后利用贝塞尔曲面来表示光场中存在的复杂畸变,以实现对系统装配误差和光学系统畸变的联合校正。实验证明,本文方法能够对大尺度密集投影光场进行光线级别的校正,并明显提升了显示效果。此外,该方法虽然基于多投影系统提出,但从原理上并不受限于显示系统结构,因此可以为各类光场显示系统的校正提供参考。接下来,本文对精确合成高分辨率的光场显示内容进行研究,旨在从图像源角度提升显示光场精度。由于硬件限制,目前的采集光场其密度和精度均无法满足现有显示系统的需要。为了解决该问题,且考虑到现有设备较容易获得空间高分辨的光场图像,因此本文主要对光场在角度域的超分辨合成进行研究,并提出了两种密集光场视点合成方法。第一种方法针对平面采集阵列得到的光场图像。该方法首先通过将视差作为几何代理,降低了对输入视图的密度要求。然后通过遮挡估计网络来实现几何估计精度的提升和新视图中空洞区域的合理填补,最后利用合成视图的循环一致性检验实现了网络的无监督训练,因而不再需要高密度的光场作为监督,进一步突破了硬件采集的限制。该方法得到的合成视图在常见的图像评价指标上能和全监督的方法相比,甚至在遮挡处理方面能得到比全监督方法更稳定锐利物体边缘,从而保证了合成光场的准确性。然而上述方法仅适用于平面阵列的光场采集系统及平面视点分布的显示系统。为了打破这些限制,本文设计了一种自由视点合成方法,能够对随意采集的稀疏视图进行密集自由视点合成,因此能够满足各种显示视点密度及视点分布的需求。为了处理稀疏视点输入,该方法基于多视角重建网络设计了深度估计模块。为了提高场景结构的估计精度和视图混合质量,该方法引入了注意力机制用于标注输入视图在目标视点位置的可见像素,进一步确保了参与深度估计和视点混合的输入视图像素遵循光度一致性假设,从而提升了密集合成视图序列中场景结构的稳定性和一致性。根据实验结果,该视图序列作为光场显示系统的输入时能在空间中再现高质量光场,并能得到比计算机生成的三维模型更逼真的显示效果。最后对本文研究内容进行总结,并展望了未来可进一步探索的研究方向。
金沐祥[3](2021)在《基于高速摄像的鹰眼三维可视化系统研究》文中进行了进一步梳理随着计算机技术、电子信息技术、图像传感技术的不断发展,机器视觉技术被广泛应用于交通、教育及体育等行业,并扮演着愈发重要的角色。在各种高速球类比赛中,随着运动员竞技水平的不断提高,仅通过裁判从现场观测到的信息做出赛事的判罚,难以确保比赛的公平性。鹰眼系统于2001年由英国的工程师保罗霍金斯首创,它利用在网球场地周围布置的数台高速摄像机对网球运动轨迹进行跟踪记录,然后对捕捉到的网球运动数据进行一系列的处理后,通过显示设备将网球的三维运动路线及落地点清晰地展示给观众和裁判,不仅克服了人眼视觉方面的极限,还提高了赛事的观赏性。当前国内外相关学者对鹰眼技术进行了积极探索,但是仍存在商业化成本高,应用场景受限以及用户体验不佳等问题。本文在阅读大量国内外相关文献的基础上对鹰眼相关技术进行了研究,设计并实现了基于高速摄像的鹰眼三维可视化系统。本系统利用架设在赛场周围的多架高速摄像机获取网球运动的二维图像数据,经过多目摄像机帧同步、网球运动物体目标检测、球心坐标提取、再经过还原演算得到网球的空间三维坐标,然后对这些空间坐标进行曲线拟合以减小实际应用场景中产生的误差和解决球体遮挡问题,接着利用3D Max搭建网球场地模型,并将其以FBX的格式导入Unity3D工程中,然后通过Unity3D平台挂载脚本,实时从数据库获取网球空间坐标,最后以交互式多视角的方式展示网球运动的三维场景。结果表明:基于高速摄像的鹰眼三维可视化系统在系统架构层面具有良好的可移植性和平台兼容性,在系统功能方面不仅能够以交互式的方式展示实时的比赛三维场景,辅助裁判对于边界球的判罚,而且能够帮助运动员训练时分析对手的击球方式和策略,提升网球比赛质量。
王诗宇[4](2021)在《智能化工业机器人视觉系统关键技术研究》文中研究指明工业机器人是先进制造系统中最具代表性的设备之一,被越来越多地应用到现代化生产制造过程,代替人工高效地执行各种复杂环境下的工业生产任务。传统依照预设程序实现重复动作任务的工业机器人应用已经无法适应当前复杂多样的生产任务需求,需要工业机器人具备更高的智能化程度顺应制造业向智能化转型的发展趋势。进一步提升工业机器人对外部环境的感知能力是当前智能化工业机器人的主要发展方向,由于视觉传感器能够为工业机器人提供更加完整的环境信息,同时具备非接触测量等优势,视觉感知能力已经逐渐成为智能化工业机器人最重要的感知能力之一,因此为工业机器人配备视觉系统是提升工业机器人智能化程度的主要手段,在复杂多样的生产任务中具有显着的实用性。本文充分阐述了工业机器人视觉系统的组成结构及各部分功能的实现原理,分析了国内外工业机器人视觉技术的研究与应用现状。在此基础上,开展了智能化工业机器人视觉系统关键技术的研究,探索了不同视觉任务需求下结合不同类型工业机器人的智能化应用研究。本论文开展的主要研究内容如下:1.研究工业机器人视觉系统成像原理。建立真实世界与图像像素之间精确的映射关系是后续工业机器人准确执行视觉任务的前提和保证。通过描述四个坐标系之间的变换过程,解释了真实场景中世界坐标向数字图像像素的投影过程,并通过建立线性成像模型明确了相机的内外参数矩阵。在此基础上,介绍了实际成像过程中由镜头引起的畸变类型,引入畸变系数建立更接近真实成像过程的非线性模型。相机标定过程能够确定每次成像过程相机的内外参数,通过张正友相机标定方法详细介绍了相机标定过程中相关参数的求解方法和优化过程,并利用张氏标定法完成对不同型号工业相机的参数求解过程。2.研究2D视觉任务下并联机器人对传送带上多种类随机分布目标的高速分拣应用,设计并搭建了一套基于2D机器视觉系统的分拣实验平台。通过建立用户坐标系实现目标对象从视觉任务空间到并联机器人作业空间的映射,并利用图像去重复算法实现对传送带上动态目标的视觉信息采集。选择稳定的边缘特征作为不同目标类别的判断依据,分别对传统Canny边缘检测算子和基于深层卷积神经网络的RCF边缘检测算法进行优化,分析比较两种边缘提取方法的性能。针对目标的旋转情况,利用稳定的边缘特征提出一种基于边缘质心距离的匹配模型,完成对不同类别目标的匹配过程。分拣实验结果表明并联机器人末端能够成功抓取传送带上的动态目标,证明机器人末端与2D视觉系统间建立了正确的手眼变换模型,图像去重复算法有效剔除了重复信息;机器人末端将目标对象按照固定姿态和类别正确放置,证明了2D视觉系统完成了对目标对象的正确匹配和目标2D姿态的准确计算。3.研究2.5D视觉任务下视觉系统引导六自由度关节型工业机器人的精准定位应用。在航天领域粒子辐照试验背景下,针对粒子辐照试验的任务需求及当前试验流程存在的不足,设计并搭建了一套自动化辐照试验平台。利用2.5D视觉系统完成对目标对象辐照位置的信息采集,对特征匹配过程得到的匹配点对进行统计分析,并结合目标显着性原理,提出了一种基于区域分布差异的特征匹配方法,完成复杂背景下实例目标的检测过程,实现辐照参数的调用。通过给出一种误差权重分配方法不断优化工业机器人末端与视觉系统间的手眼关系模型,保证辐照试验过程束流照射位置的精度。最终自动化辐照试验平台准确完成了粒子辐照流程,证明了所提方法的有效性。4.研究3D视觉任务下工业机器人对空间任意位姿目标物体的抓取应用,并利用六自由度关节型机器人结合双目视觉系统搭建了3D目标抓取实验平台。工业机器人对空间任意位姿目标的准确抓取依赖3D视觉系统对空间目标六自由度位姿信息的正确估计。通过研究双目视觉系统的成像过程及实现目标深度信息恢复过程的视差原理,将目标在左右视图中对应的匹配点对形成空间三维点云,提出一种基于全局结构特征约束的目标估计方法,将描述目标结构的全局特征量化为点云重建过程的约束条件,实现对目标物体的六自由度位姿估计。实验结果表明机器人末端能够以相应姿态完成对任意摆放目标的抓取,证明了所提方法的可行性。本文分别构建了2D、2.5D和3D视觉任务下工业机器人结合视觉系统的应用环境,探索了不同类型工业机器人在结合视觉系统的应用过程所涉及的关键技术,对并联型工业机器人和六自由度串联型工业机器人与视觉系统间的手眼关系模型、复杂背景条件下的实例目标检测和目标物体空间六自由度位姿估计等关键技术进行了研究,本文以实验室承担的“智能机器人”国家重点研发计划和“高档数控机床与基础制造装备”国家科技重大专项项目研发任务为背景,研究内容涵盖了多种机器人结合视觉系统的应用场景,能够为今后工业机器人智能化的研究提供一定的参考依据。
王冠然[5](2021)在《基于单目视觉的汽车列车制动时序检测方法研究》文中进行了进一步梳理随着我国交通事业的发展,汽车越来越多的被应用于物流工程以及城际交通,汽车列车因其燃油经济性更高,便于模块化运输等优点,在当今的物流工程中占据主要地位。国家标准规定,高速公路允许半挂汽车列车与中置轴汽车列车行驶,这进一步促进了我国汽车列车的发展。相较于普通乘用车与商用车,汽车列车的动力学模型更复杂,在制动过程中容易出现由于牵引车与挂车各轴间制动不同步导致的甩尾、推头、拖拽等制动失稳现象。制动时序检测即检测汽车列车的轴间制动顺序,解析汽车列车的制动状态,以确定是否需要对制动系统调整甚至维修。针对制动时序的检测,国家标准中也提出明确要求,因此提出一种基于单目视觉的汽车列车制动时序检测方法是必要的。首先借助轮胎模型对滑移率与轮胎制动力的关系进行了分析,采用滑移率达到20%的时间表征汽车列车轴间制动时序。分析滑移率求解公式得知,求解轮胎滑移率需要获取汽车列车轮胎的平动速度及转动速度,采用视觉检测轮胎边缘标志物的方式获取平动速度与转动速度,通过分析轮胎边缘点在轮胎滚动过程中形成的摆线轨迹,求解轮胎滑移率。同时,轮胎转动角度求解部分采用两个成180度的标志物,提高标志物转动角度的检测精度。针对提出的检测方法设计了单目视觉汽车列车制动时序检测系统的空间布置方案、系统硬件方案以及检测流程方案。图像处理部分,考虑到同一视场内标志物的个数过多,采用模板匹配对轮胎标志物识别,提高检测精度。为提高模板匹配的准确率,选用黑白相间的同心圆作为标志物。在图像预处理方面,采用中值滤波与冲击滤波对图像去噪与锐化,提高图像中标志物的对比度。采用Blob分析获取标志物区域,采用基于轮廓的模板匹配算法识别待匹配图像中的标志物区域。为验证匹配效果,借助模板匹配算子输出的定位信息将模板图像的亚像素轮廓转换到匹配区域,模板亚像素轮廓与匹配区域的标志物边界基本重合,说明匹配精度较高。为判断匹配准确性,提取匹配区域不同亚像素轮廓内图像的平均灰度差值,与设置的灰度差阈值比较。为了提高图像采集的精度,采用张氏标定法标定相机,进行相机标定试验,从重投影误差、多次试验获取的内参数矩阵稳定性以及畸变矫正后棋盘格上同一边角点间线性关系三方面说明相机标定效果,提出相机空间定位方案。最后对提出的滑移率求解公式进行检定试验,试验结果表示,视觉检测转速识别误差在3.3%以下,滑移率求解误差在4.2%以下。为验证汽车列车制动时序检测方法的有效性,进行汽车列车制动时序检测实车试验,选用三辆汽车列车分别进行五组试验进行验证,并对试验结果进行分析。
王栋[6](2021)在《基于视觉的机械臂目标跟踪与抓取方法研究》文中研究指明为提高机器人复杂场景下的目标抓取能力,本课题以串联机器人抓取传送带上运动的堆叠物体为例,设计了基于视觉的机械臂目标跟踪与抓取方法,并对方法中的目标检测及跟踪抓取等关键技术进行了研究。首先概述了机器人定位抓取方法及关键技术的研究现状,引入了研究内容及研究框架。通过分析机器人抓取的任务及难点设计了基于立体视觉的抓取方案,并对方案中的立体视觉进行了原理分析及实验验证。然后对融合深度学习的目标检测技术进行了研究。采用基于深度学习的目标检测方法对图像进行了目标区域筛选,通过缩小图像中目标的检测范围来优化传统的基于图像分割的目标检测过程。对基于图像边缘的特征点检测方法进行了过程优化,首先依据目标匹配的轮廓像素点进行图像重建并形成新的目标检测区域,随后对目标检测区域进行角点的检测并获取详细的特征点坐标,将物体边缘特征的提取问题转化为角点的检测,在双目图像下对特征点进行匹配进而快速实现目标特征点空间的坐标重建。接着对运动目标跟踪抓取这一关键技术进行了研究,为应对物体的多样化姿态,通过目标特征点立体几何运算创建了模型不同姿态的坐标系并设计了相应的抓取姿态。针对生产线上动态目标的跟踪和抓取任务,采用了基于位置的视觉伺服系统的研究方案,同时对末端执行器的跟踪抓取路径进行优化以提高机器人抓取效率。为提高跟踪过程中末端执行器的位置定位的精度,在跟踪抓取的方法应用位置估计算法,建立了基于Lucas-Kanade参数优化的Kalman滤波数学模型。最后搭建了实验的硬件平台和软件操作界面,通过手眼标定实验实现了立体视觉系统和机器人抓取系统的坐标转换,解算出抓取位姿,完成了目标物体的三维位姿估计。对不同堆叠状态下的运动物体进行目标搜索和位姿提取的跟踪抓取实验,论证本课题各关键技术算法的有效性。
金怀智[7](2021)在《弹载图像记录仪多曝光融合算法的研究》文中研究指明近年来,随着我国航空航天事业的发展,图像采集在弹箭研制过程中的需求日渐广泛,起到监测导弹飞行状态和外部环境作用。在复杂的光照条件下,图像传感器往往很难满足测试场景的动态范围,在单一曝光度设置下易产生过曝或欠曝现象。本文综合考虑需求及问题,基于现有实验条件,为了适配高速运动条件下弹载图像记录仪,提出结合立体匹配视差融合多传感器和多曝光融合算法,合成得到高动态范围(HDR)图像。多曝光融合算法需要输入多曝光图像序列,当拍摄运动物体时,由于曝光间隙,物体运动速度越快,融合得到的图像鬼影现象就越严重。运动物体的HDR图像获取是多曝光融合算法的天生缺陷,本文为了解决这一问题,首先从图像获取入手,摒弃了以往单传感器分时多次曝光的模式,转而采取多传感器同时单次曝光,将三个相同参数的OV4689相机模组平行排列组成一种新型的矩阵相机模组,保证了被测场景世界坐标在时间维度的一致性。为了校正三目相机模组,消除安装误差以保证相机共面且行对准,本文提出先使用张氏校正法得到各相机的内外参数,后使用Bouguet立体校准算法完成场景图像的校正。针对相机坐标系不同导致的对应像素之间坐标不一致的情况,本文提出将多目视觉视差信息融入多曝光融合算法中。使用了改进得到的HAD-Census立体匹配算法,在曝光条件不同的情况下也能准确得到被测场景的视差。本文采用质量因子评价构成权重图以及图像金字塔分解的思想,以多分辨率重构的形式从多曝光图像序列中选出曝光良好的像素。该方法综合了多曝光融合算法和立体匹配算法,像素融合时消除对应视差,即可得到最终的HDR图像。在实际使用中,还应通过研究被测物体距离与成像夹角的关系,分析多视角对多曝光融合结果的影响。本文分别在静态场景和动态场景进行了测试,根据灰度直方图对比分析多曝光图像序列与融合得到的HDR图像,表明融合图像动态范围更广,各像素曝光良好,且没有明显的鬼影现象。实验条件下,将动态场景中运动的行人与弹载图像飞行过程作对比,证明了本文的科学性和可行性。
王培人[8](2021)在《桌面式光场显示关键技术研究》文中指出信息时代,新型显示技术不断创新和完善。近年来,得益于计算机技术和三维显示技术的快速发展,海量的三维数据可以轻易获取,但是此前的三维显示技术由于存在各种缺陷还无法满足人们的预期需求。桌面式光场显示技术是最具潜力和应用前景的下一代三维显示技术,能够以桌面展示的方式用光场显示技术对空间的三维场景及其动态信息进行真三维的重建,可以提高人们判断和处理信息的能力。然而,目前的桌面式三维光场显示系统还存在视点密度低、视角小、景深受限等问题,限制了其在各个领域的应用和发展。因此,本文针对上述问题展开研究,以实现高质量的桌面式三维光场显示效果。本文的研究内容和创新点如下:(1)水平视差桌面式光场显示实现高视点密度和低串扰的方法研究要点1:传统桌面式立体显示技术由于缺乏单眼的调节刺激,双目会聚距离与单眼调节距离不一致,进而导致辐辏-调节矛盾的冲突。针对这一问题,设计了垂直方向扩散的全息功能屏和基于窄柱透镜阵列实现像素水平调制的桌面式三维光场显示系统,提出了多子单元联合编码算法,可以实现空间中超密集视点的肩并肩插值排布。仿真和实验结果表明所提方法可实现1 mm-1的超密集视点排布,同时可以为单眼提供4个视点来满足调节刺激,进而消除辐辏-调节矛盾的冲突,最终实现具有自然深度线索的清晰三维图像。研究要点2:液晶面板相邻像素发出的光线由于传统散射背光会导致视点间的严重串扰。针对这一问题,设计了垂直校准的可编程定向背光对散射光线进行有效抑制,并配合人眼跟踪设备以时分复用的方式为观察者提供平滑的运动视差,最终实现视点间的低串扰。实验中,在±20°的视场角范围内利用352个视点实现串扰度低于6%的高质量三维图像。(2)全视差桌面式光场显示实现大视角和高视点密度的方法研究要点3:传统的基于集成成像的光场显示很难同时实现大视场角和高视点密度来呈现高质量的桌面式三维显示效果。针对这一问题,设计了基于投影仪阵列和全息功能屏组成的空间复用体素屏,来代替传统的液晶面板。该方法不仅可以在扩大视角的同时保证高视点密度,同时也可以消除视区跳变并降低混叠效应对三维显示效果的影响。基于所提的方法,使显示系统的视场角从32°扩大到96°,同时再现44100个视点来重建具有连续平滑视差的高质量三维场景。(3)360度环形视区的桌面式三维光场显示提高景深的方法研究要点4:由于透镜阵列固有的聚焦能力和系统光线相交特性的冲突,导致面交织现象的产生,从而限制显示系统的景深和降低显示图像的立体效果。针对这一问题,基于圆锥透镜阵列的桌面式三维光场显示系统的成像特性进行建模分析,提出了基于人眼位置的视点拟合编码优化算法来降低面交织现象的影响,提高环形观看视区的显示景深。实验中,利用该方法实现将显示系统的清晰景深范围从13cm提高到15cm,增强了三维成像的可视化效果。
戴世鑫[9](2021)在《网球轨迹测量系统研究与实现》文中指出网球的轨迹测量系统能够克服人类依靠肉眼进行观察的缺陷,辅助裁判做出更准确的判断,有效遏制裁判进行暗箱操作的动机,保证体育竞技的公平性,但目前网球轨迹测量系统的复杂性且不菲的部署费用限制其应用。本文研究并设计了一套高可靠性、精度和相对低成本的网球轨迹测量系统,具体工作内容如下:(1)实现一种基于三帧差分、局部动态阈值和改进YOLOv4(You Only Look Once)模型的网球轮廓提取算法。通过三帧差分法实时地对网球轮廓进行粗略的提取,当检测到网球的起始轨迹后,通过局部动态阈值对网球轮廓进行二次检测以得到更准确的网球轮廓,对于面积较大的网球轮廓,使用基于改进的YOLOv4模型对轮廓区域进行判断,降低错误识别网球的概率。(2)实现一种基于标定板特征点和场地固定点、基于RANSAC的场地坐标系转换矩阵的计算方法。该法改善单独使用标定板标定场地的情况下,由于标定板标定点不处在网球场地平面导致远处的网球坐标测量误差大的问题,同时优化标定板区域检测算法,提升传统标定板区域检测算法的可靠性。(3)建立网球的动力学模型,并实现一种网球轨迹识别算法。该算法通过网球轨迹点的运动方向、运动速度、运动加速度、共面四个方面对轨迹候选点进行评价,并采用全连接的思想进行轨迹匹配与重建,实现网球轨迹的准确且实时的识别,同时实现基于UKF的网球落点预测算法,能够准确预测满足精度要求的落点坐标。(4)设计实现网球轨迹测量系统,包括网球轮廓提取、坐标计算与转换、网球轨迹识别与落点预测等算法、网球轨迹的三维重建、性能优化等模块的实现。
高学亮[10](2020)在《基于数字图像相关的汽车轮胎高速滚动力学特性研究》文中认为轮胎滚动变形是轮胎力学特性的重要组成部分。由刚性大位移和柔性大变形构成的轮胎滚动变形是轮胎与路面相互作用的直接结果。受轮胎高速滚动条件限制,对高速滚动轮胎力学特性的研究主要着手于高速轮胎滚动变形特性的研究。准确地测量和表达高速滚动轮胎非线性柔性大变形对揭示高速滚动轮胎力学特性、高速滚动轮胎变形机理和优化轮胎结构等方面的研究均起到了积极的推动作用。目前,滚动轮胎非线性柔性大变形在试验测量方法、测量结果稳定性、试验环境影响度和滚动变形建模等方面的研究还不够完善,尤其对高速滚动轮胎非线性柔性大变形的研究还很不充分。针对高速滚动轮胎非线性柔性大变形建模表达、全域柔性变形获取和力学特性测量中发展尚未完善的三个问题:(1)如何通过理论模型准确表达高速滚动轮胎非线性柔性大变形特性和分布规律;(2)如何通过数字图像测量方法,获取滚动轮胎全域非线性柔性大变形;(3)如何通过滚动轮胎变形数字图像,准确测量滚动轮胎接触印迹长度和滚动阻力系数;本文开展了大量的理论研究、发展分析和试验验证工作。本文主要研究内容包括:首先,本文以刚性环轮胎模型为理论框架,建立了考虑轮胎任意垂向载荷压力分布、轮胎与路面动态接触耦合作用和胎体柔性的分布载荷柔性环轮胎模型。搭建了轮胎模态试验系统,通过轮胎模态分析和频响函数带宽法,辨识分布载荷柔性环轮胎模型的切向刚度、径向刚度、抗弯刚度和各阶模态阻尼系数。在此基础上,通过分布载荷柔性环轮胎模型仿真分析,揭示了高速滚动轮胎切向非线性柔性大变形呈类正弦分布规律变化,径向非线性柔性大变形在滚动接触印迹内存在偏心分布特征。其次,将基于连续介质力学理论的绝对节点坐标公式引入到数字图像相关测量中,提出了一种适应于滚动轮胎非线性柔性大变形的改进的数字图像测量方法。该方法具有全域、非接触、易于实现和测量结果稳定特点,有效地解决了滚动轮胎内传感测量方法中存在的不足。通过开发的单目胎面橡胶块扭转变形测量装置,捕捉胎面橡胶块连续扭转变形数字图像,采用灰度直方图、相关系数和相对熵相结合的方法综合评价扭转变形数字图像质量。分别通过数字图像处理和试验测量方法获得了胎面橡胶块扭转非线性大变形特征和演变过程,验证了改进的数字图像相关方法的有效性,确定了胎面橡胶块粘滑状态切换点,揭示了扭转角速度对标记点运动轨迹形态的影响机理,扭转角速度越大,标记点迟滞现象越明显,标记点滞回圈面积越大。在此基础上,通过改进的数字图像相关方法,获取了胎面橡胶块分析区域全域相对应变率分布云图,进而更加清晰的揭示了胎面橡胶块全域扭转变形分布的演变机理和影响机理。然后,搭建了基于优化的图像相关方法的高速滚动轮胎双目视觉测量系统,相继完成了高速双目视觉测量系统立体标定、轮胎表面随机散斑纹理创建和滚动轮胎数字图像质量分析。通过改进的数字图像相关和立体匹配计算方法,对高速滚动轮胎变形散斑数字图像序列处理分析,获取高速滚动轮胎分析区域内单点相对耦合位移和全域非线性柔性大变形分布特征及动态变化规律。在全局绝对节点广义坐标下,提出了一种改进数字图像相关的相对耦合位移解算模型,通过该模型计算高速滚动轮胎变形图像子集网格节点的相对位置变换旋转矩阵和平移矩阵,进而辨识并分离高速滚动轮胎相对耦合位移中的刚体位移和柔性变形,进一步揭示和分析了标记点相对耦合位移、相对刚性位移、相对柔性大变形的变化特征和分析区域全域相对非线性柔性大变形云图分布形态及动态变化规律。在此基础上,研究了载荷、胎压和速度对高速滚动轮胎非线性柔性大变形分布特征的影响。经试验验证分布载荷柔性环轮胎模型能够准确表达高速滚动轮胎非线性柔性大变形特征和分布规律。最后,提出了一种基于数字图像相关的滚动轮胎力学观测方法。通过数字图像处理方法获取标记点相对柔性X向、Z向和剪切应变率分布,在此基础上计算标记点相对柔性主应变率分布。通过辨识标记点相对柔性主应变率突变特征,确定滚动轮胎时变接触印迹长度瞬时端点位置,实现了基于数字图像的滚动轮胎时变接触印迹长度解算。在滚动轮胎接触印迹内,通过分析时变接触印迹长度方向上的标记点相对柔性主应变率分布,计算滚动轮胎接触印迹端点相对于接触印迹理论中心的应变率面积差,在此基础上解算滚动轮胎动态径向偏距。通过标记点相对柔性变形和分析区域全域变形云图分布,更加清晰地揭示了轮胎高速滚动过程中接触印迹区内滚动轮胎变形的演变过程和滚动阻力产生的滞后(偏距)机理。通过辨识滚动轮胎接触印迹内相对柔性变形极大值点,结合极值点相对耦合位移分布,解算滚动轮胎动态接触半径。通过滚动轮胎动态径向偏距和滚动轮胎动态接触半径,获取轮胎滚动阻力系数。经试验验证基于滚动轮胎变形数字图像的滚动阻力系数测量方法是一种可行、稳定并易于实现的非接触测量方法。本文主要创新点包括:(1)建立了适用于轮胎高速滚动力学分析的分布载荷柔性环轮胎模型。该模型综合考虑了轮胎任意垂向载荷压力分布、轮胎与路面接触关系和胎体柔性等因素,准确表达了高速滚动轮胎接触印迹内柔性变形特征及分布规律,也为基于数字图像相关的轮胎滚动力学全域观测提供了理论依据;(2)提出了一种改进数字图像相关法的相对耦合位移解算模型。针对滚动轮胎变形数字图像子集节点的相对耦合位移特征(刚体大位移与柔体大变形叠加),在绝对节点坐标下,通过该模型辨识相对耦合位移中的相对柔性大变形,解决了高速滚动轮胎非线性柔性大变形全域测量与辨识问题,进一步扩大了数字图像相关法适用范围;(3)揭示并分析了高速滚动轮胎全域相对非线性柔性大变形的分布特征及影响机理。在恒载荷变胎压作用下,随着胎压的增大,滚动轮胎相对柔性大变形呈递减趋势变化,而在恒胎压变载荷下,随着载荷的增大,滚动轮胎相对柔性大变形呈递增趋势变化。由滚动轮胎相对全域柔性大变形分布云图可得,在滚动轮胎周期更迭处,低速下相对全域柔性大变形呈均匀相间分布,高速下相对全域柔性大变形呈局部区域集中分布。(4)提出了一种基于数字图像相关的滚动轮胎力学观测方法。该方法基于双目数字图像计算获取滚动轮胎标记点刚体位移和柔体形变,并由标记点的变形分布解算滚动轮胎接触印迹长度和滚动阻力系数等力学状态指标。基于该方法成功实现了标记点印迹全域范围法向(Z向)变形分布物理观测,基于该分布不仅实现了滚动阻力和印迹长度的精确测量,也更清晰展示了轮胎滚动过程中印迹区内轮胎变形、应变的演变过程和滚动阻力产生的滞后(偏距)机理。这为轮胎滚动力学机理分析和轮胎减阻优化设计提供了更直接的评价手段,同时也为新一代智能轮胎胎内传感器的力学解算提供了数据支持。
二、高速运动物体视觉图像的畸变(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、高速运动物体视觉图像的畸变(论文提纲范文)
(1)多特征融合的高速运动物体跟踪方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 高速运动物体跟踪的背景与意义 |
1.2 高速运动物体跟踪的国内外研究现状 |
1.3 高速运动物体跟踪算法存在的问题 |
1.4 本文研究内容和章节安排 |
1.4.1 本文研究内容 |
1.4.2 本文章节安排 |
2 高速运动物体的跟踪与测距系统设计 |
2.1 系统原理 |
2.2 系统结构设计 |
2.2.1 控制部分 |
2.2.2 执行部分 |
2.2.3 图像算法部分 |
2.3 本章小结 |
3 高速运动物体的测距方法 |
3.1 相似三角形测距算法 |
3.1.1 相机模型 |
3.1.2 单目测距方法 |
3.1.3 张氏标定法 |
3.2 基于相机姿态角的相似三角形测距算法 |
3.3 测距实验结果与分析 |
3.4 本章小结 |
4 高速运动物体检测与跟踪方法 |
4.1 图像预处理 |
4.2 高速运动物体的运动模糊复原 |
4.2.1 运动模糊 |
4.2.2 运动模糊图像复原 |
4.3 目标检测方法 |
4.3.1 帧间差分目标检测方法 |
4.3.2 基于混合高斯的背景差分目标检测方法 |
4.4 生成式跟踪方法 |
4.4.1 基于卡尔曼滤波的目标跟踪方法 |
4.4.2 基于在线检测器的核相关滤波跟踪方法 |
4.5 本章小结 |
5 基于HLBP的Kalman与Camshift融合跟踪算法 |
5.1 基于均值偏移滤波的跟踪方法 |
5.1.1 Meanshift原理 |
5.1.2 Meanshift跟踪方法 |
5.2 Camshift跟踪方法 |
5.3 局部二值特征与哈尔特征融合 |
5.3.1 局部二值特征 |
5.3.2 哈尔特征 |
5.3.3 Haar-LBP |
5.4 基于HLBP的Kalman与Camshift融合跟踪算法 |
5.5 目标跟踪实验结果与分析 |
5.6 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(2)三维光场精准再现关键技术研究(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 三维显示技术概述 |
1.1.1 人眼三维视觉 |
1.1.2 体视三维显示 |
1.1.3 体三维显示 |
1.1.4 光场三维显示 |
1.2 光场采集及重建 |
1.2.1 光场采集 |
1.2.2 光场重建 |
1.3 本文主要研究工作 |
2 光场再现的理论基础 |
2.1 光场三维显示理论基础 |
2.1.1 光场理论 |
2.1.2 投影光场显示系统原理 |
2.2 平面光场采集原理 |
2.3 基于几何代理的虚拟视点合成原理 |
2.3.1 摄像机成像和场景稀疏重建 |
2.3.2 场景稠密重建:视差和深度估计 |
2.3.3 视点变换 |
2.3.4 视点混合 |
2.3.5 本章小结 |
3 基于机器视觉的光场定位与校正 |
3.1 系统显示原理及畸变分析 |
3.2 光场校正方法 |
3.3 校正实验及结果分析 |
3.4 本章小结 |
4 基于平面稀疏采集阵列的场景高密度光场重建 |
4.1 引言 |
4.2 稠密光场合成问题描述 |
4.3 网络模块与损失函数 |
4.3.1 视差估计 |
4.3.2 遮挡估计 |
4.3.3 损失函数 |
4.4 实验及结果分析 |
4.4.1 数据集 |
4.4.2 实验细节 |
4.4.3 和全监督方法的对比结果 |
4.4.4 和无监督方法的对比结果 |
4.4.5 消融实验 |
4.4.6 应用 |
4.5 本章小结 |
5 基于稀疏自由视角输入的场景高密度光场重建 |
5.1 引言 |
5.2 自由视点合成方法 |
5.2.1 深度估计模块 |
5.2.2 视点混合模块 |
5.2.3 图像误差掩膜 |
5.2.4 损失函数 |
5.3 实验 |
5.3.1 数据集和实验细节 |
5.3.2 视图合成结果 |
5.4 在扫描光场显示系统中的显示效果 |
5.4.1 显示系统结构及参数 |
5.4.2 扫描显示系统的多视角显示算法 |
5.4.3 基于显示系统结构的视点合成 |
5.4.4 实际显示效果 |
5.5 本章小结 |
6 总结与展望 |
参考文献 |
作者简历 |
(3)基于高速摄像的鹰眼三维可视化系统研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 计算机视觉技术 |
1.3 相机标定技术 |
1.4 运动目标检测技术 |
1.5 系统开发及运行环境 |
1.5.1 Unity3D相关技术 |
1.5.2 3D Max建模技术 |
1.5.3 服务器开发环境 |
2 系统架构设计 |
2.1 系统功能概述 |
2.2 系统整体方案设计 |
2.2.1 硬件模块设计 |
2.2.2 软件模块设计 |
2.2.3 系统工作流程 |
2.3 系统关键技术概要 |
2.3.1 相机标定 |
2.3.2 网球二维图像圆心坐标精确求取 |
2.3.3 立体匹配 |
2.4 本章小结 |
3 相机标定 |
3.1 相机成像原理 |
3.1.1 空间坐标系之间的关系 |
3.1.2 相机理论成像模型 |
3.1.3 相机实际成像模型 |
3.2 相机标定算法 |
3.2.1 张正友相机标定理论 |
3.2.2 迭代优化算法求解 |
3.3 系统实验及结果分析 |
3.3.1 实验步骤及关键问题 |
3.3.2 实验结果分析 |
3.4 本章小结 |
4 网球运动二维图像检测及处理 |
4.1 运动目标检测方法概述 |
4.2 基于混合高斯模型的背景差分法 |
4.3 图像去噪 |
4.4 实验步骤及结果分析 |
4.5 本章小结 |
5 网球关键信息解算 |
5.1 网球成像圆心坐标精确求取 |
5.1.1 极线约束 |
5.1.2 特征提取与立体匹配 |
5.1.3 网球成像圆心畸变误差分析 |
5.1.4 网球成像圆心坐标精确求取 |
5.1.5 实验结果 |
5.2 网球空间三维坐标求取及其运动轨迹曲线拟合 |
5.2.1 基于最小二乘法的空间三维坐标求解算法 |
5.2.2 基于最小二乘法进行曲线拟合 |
5.2.3 实验结果 |
5.3 本章小结 |
6 三维可视化设计 |
6.1 网球场地建模 |
6.2 场景三维可视化 |
6.2.1 设置碰撞检测 |
6.2.2 三维可视化 |
6.3 部署网络云平台 |
6.3.1 模型轻量化 |
6.3.2 建立云平台数据库 |
6.4 本章小结 |
7 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
附录 |
致谢 |
(4)智能化工业机器人视觉系统关键技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 工业机器人视觉系统 |
1.2.1 图像采集单元 |
1.2.2 信息处理单元 |
1.2.3 执行单元 |
1.3 工业机器人视觉系统应用现状分析 |
1.3.1 工业机器人视觉系统应用分析 |
1.3.2 国外机器人视觉系统研究现状 |
1.3.3 国内机器人视觉系统研究现状 |
1.4 论文结构与研究内容 |
1.4.1 课题来源 |
1.4.2 论文主要研究内容 |
1.4.3 论文章节安排 |
1.5 本章小结 |
第2章 视觉系统成像原理 |
2.1 研究背景 |
2.2 相机成像模型 |
2.2.1 成像过程建模 |
2.2.2 投影空间与齐次坐标 |
2.2.3 相机的内参与外参 |
2.3 相机畸变模型 |
2.3.1 径向畸变 |
2.3.2 切向畸变 |
2.3.3 畸变校正 |
2.4 相机标定 |
2.4.1 相机标定方法介绍 |
2.4.2 相机参数求解过程 |
2.5 参数优化 |
2.6 实验结果与分析 |
2.7 本章小结 |
第3章 基于2D机器视觉的并联机器人分拣系统 |
3.1 研究背景 |
3.2 分拣系统硬件组成 |
3.3 手眼关系变换 |
3.3.1 建立用户坐标系 |
3.3.2 目标重复判定 |
3.4 目标检测 |
3.4.1 图像预处理 |
3.4.2 特征提取 |
3.4.3 基于边缘质心距离的模板匹配方法 |
3.4.4 目标位姿 |
3.5 机器人目标抓取策略 |
3.5.1 数据通信格式设计 |
3.5.2 分拣程序流程设计 |
3.6 实验结果及分析 |
3.6.1 边缘检测结果分析 |
3.6.2 分拣结果分析 |
3.7 本章小结 |
第4章 基于2.5D视觉引导的机器人定位系统 |
4.1 研究背景 |
4.2 试验平台设计流程 |
4.2.1 平台硬件组成 |
4.2.2 试验平台工作流程 |
4.3 搭建2.5D视觉系统 |
4.4 实例目标检测 |
4.4.1 特征点的提取与表达 |
4.4.2 特征匹配差异分析 |
4.4.3 目标显着性区域划分 |
4.4.4 基于区域分布差异的特征匹配 |
4.5 机器人手眼关系模型 |
4.6 实验结果与分析 |
4.6.1 实例目标检测实验 |
4.6.2 机器人手眼标定实验 |
4.6.3 整体试验流程 |
4.7 本章小结 |
第5章 基于双目视觉系统的机器人3D抓取应用 |
5.1 研究背景 |
5.2 实验平台组成 |
5.3 双目立体视觉原理 |
5.3.1 视差深度原理 |
5.3.2 对极几何模型 |
5.3.3 立体校正 |
5.4 目标六自由度位姿估计 |
5.4.1 点对特征匹配 |
5.4.2 点云处理 |
5.5 机器人抓取实验 |
5.6 本章小结 |
第6章 结束语 |
6.1 论文工作总结 |
6.2 论文创新点 |
6.3 研究展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(5)基于单目视觉的汽车列车制动时序检测方法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 关键技术研究现状 |
1.2.1 制动时序国内外研究现状 |
1.2.2 机器视觉国内外研究现状 |
1.3 论文主要研究内容 |
1.4 本章小节 |
第2章 制动时序检测方法理论分析及方案设计 |
2.1 基于滑移率辨识的汽车列车制动时序求解方法 |
2.1.1 基于滑移率辨识的制动时序检测合理性分析 |
2.1.2 纵向滑移率影响因素分析 |
2.2 轮胎滑移率求解方法 |
2.2.1 基于摆线运动轨迹的轮胎滑移率求解方法 |
2.2.2 轮胎转动角度识别方法选择 |
2.2.3 轮胎半径及标志物位置半径求解方法 |
2.3 汽车列车制动时序检测系统布置方案设计 |
2.3.1 汽车列车制动时序检测系统布置 |
2.3.2 倾斜角度对滑移率检测影响分析 |
2.3.3 汽车列车制动时序检测硬件方案设计 |
2.3.4 汽车列车制动时序检测的检测流程设计 |
2.4 本章小节 |
第3章 基于模板匹配算法的标志物识别算法 |
3.1 Halcon图像处理软件介绍以及标志物选取 |
3.1.1 Halcon图像处理软件介绍 |
3.1.2 Halcon图像处理标志物选取 |
3.2 图像预处理 |
3.2.1 图像分割及灰度变换 |
3.2.2 图像噪声滤波方案选择 |
3.2.3 图像锐化 |
3.3 Blob分析分割模板区域 |
3.3.1 图像形态学处理 |
3.3.2 图像动态阈值分割 |
3.3.3 连通域分割与特征筛选 |
3.4 模板匹配算法 |
3.4.1 模板匹配算法原理及分类 |
3.4.2 模板建立 |
3.4.3 模板匹配 |
3.4.4 模板匹配效果显示 |
3.4.5 匹配准确度检验 |
3.5 本章小结 |
第4章 视觉检测系统相机标定及精度验证 |
4.1 相机成像原理分析 |
4.1.1 相机成像坐标系介绍 |
4.1.2 相机线性成像过程原理分析 |
4.1.3 相机非线性畸变 |
4.2 单目相机标定算法 |
4.2.1 张氏标定法原理 |
4.2.2 相机参数优化 |
4.3 相机标定试验 |
4.3.1 棋盘格制作与图像采集 |
4.3.2 相机参数优化 |
4.3.3 相机标定误差及参数稳定性分析 |
4.3.4 单目相机的空间定位方法 |
4.4 本章小结 |
第5章 制动时序检测方法试验与结果分析 |
5.1 滑移率求解方法验证试验 |
5.1.1 检定试验硬件介绍 |
5.1.2 滑移率识别精度检定 |
5.1.3 试验误差因素分析 |
5.2 汽车制动时序视觉检测系统组成 |
5.2.1 汽车列车制动时序检测系统硬件组成 |
5.2.2 汽车列车制动时序检测系统软件设计 |
5.2.3 实车试验与结果分析 |
5.3 本章小结 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 未来展望 |
参考文献 |
作者简介及在学期间所取得的成果 |
致谢 |
(6)基于视觉的机械臂目标跟踪与抓取方法研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 机器人定位抓取方法研究现状 |
1.2.2 立体视觉技术研究现状 |
1.2.3 目标检测技术研究现状 |
1.2.4 跟踪抓取技术研究现状 |
1.3 研究内容及框架 |
1.4 本文主要创新点 |
2 总体设计与双目立体视觉 |
2.1 引言 |
2.2 任务分析与总体方案设计 |
2.2.1 任务及技术难点分析 |
2.2.2 总体方案设计 |
2.3 双目视觉系统数学模型 |
2.3.1 相机成像模型 |
2.3.2 成像坐标系模型 |
2.3.3 成像畸变模型 |
2.3.4 双目相机成像模型 |
2.4 双目视觉系统原理与实验 |
2.4.1 双目相机矫正原理 |
2.4.2 相机标定原理 |
2.4.3 相机标定实验 |
2.4.4 双目矫正实验 |
2.5 本章小结 |
3 融合深度学习的检测方法研究 |
3.1 引言 |
3.2 基于深度学习的目标检测 |
3.2.1 目标检测网络 |
3.2.2 评价指标 |
3.2.3 非极大值抑制 |
3.3 目标检测过程与结果分析 |
3.3.1 创建数据集 |
3.3.2 创建模型和数据集预处理 |
3.3.3 训练检测模型 |
3.3.4 评估训练模型 |
3.3.5 新图像检测实验 |
3.4 数字图像处理概述 |
3.4.1 图像增强 |
3.4.2 图像形态学 |
3.4.3 图像分割与特征提取 |
3.5 基于图像边缘的特征点检测方法 |
3.5.1 图像预处理 |
3.5.2 目标物体边缘特征提取 |
3.5.3 基于轮廓特征的可变形模板匹配方法 |
3.5.4 图像重建与特征点检测 |
3.6 坐标重建 |
3.7 本章小结 |
4 运动目标跟踪抓取方法研究 |
4.1 引言 |
4.2 模型抓取姿态设计 |
4.3 基于位置的视觉伺服跟踪抓取方法 |
4.3.1 基于位置的视觉伺服框架 |
4.3.2 跟踪抓取路径优化 |
4.4 位置估计算法优化 |
4.4.1 Lucas–Kanade光流算法 |
4.4.2 Kalman滤波原理 |
4.4.3 多参数优化的Kalman滤波数学模型 |
4.5 本章小结 |
5 综合实验与分析 |
5.1 引言 |
5.2 实验环境搭建 |
5.2.1 硬件组成 |
5.2.2 软件系统 |
5.3 手眼标定 |
5.3.1 手眼结构 |
5.3.2 手眼标定原理 |
5.3.3 手眼标定实验 |
5.3.4 手眼精度验证实验 |
5.4 综合实验 |
5.5 本章小结 |
6 总结与展望 |
参考文献 |
致谢 |
攻读硕士学位期间发表的学术论文 |
(7)弹载图像记录仪多曝光融合算法的研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 课题的研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 弹载图像记录仪研究现状 |
1.2.2 多曝光融合HDR算法研究现状 |
1.2.3 多目立体视觉研究现状 |
1.3 本文的主要内容 |
1.4 本文的章节安排 |
2 基于树莓派的图像采集系统 |
2.1 主控系统 |
2.1.1 采集系统整体架构 |
2.1.2 软件环境 |
2.2 三目相机模组 |
2.3 本章小结 |
3 三目相机标定及立体校正 |
3.1 成像系统的四个坐标系 |
3.2 相机成像模型 |
3.3 相机标定 |
3.3.1 张正友标定法 |
3.3.2 标定实验 |
3.4 立体校正 |
3.4.1 对极几何基本概念 |
3.4.2 基于Bouguet立体校正 |
3.4.3 立体校正实验 |
3.5 本章小结 |
4 基于立体匹配的视差获取 |
4.1 立体匹配的约束准则 |
4.2 立体匹配基本步骤 |
4.3 基于HAD-Census的立体匹配 |
4.3.1 基于HAD-Census的初始代价计算 |
4.3.2 基于十字交叉法的代价聚合 |
4.3.3 扫描线优化 |
4.3.4 多步骤视差细化求精 |
4.4 立体匹配结果 |
4.5 本章小结 |
5 基于多曝光融合的HDR算法 |
5.1 算法总体概述 |
5.2 质量评价因子 |
5.2.1 局部对比度 |
5.2.2 色彩饱和度 |
5.2.3 适当曝光度 |
5.2.4 权重图构造 |
5.3 基于金字塔分解的多曝光图像融合算法 |
5.3.1 权重图高斯金字塔 |
5.3.2 基于拉普拉斯金字塔的图像融合 |
5.4 实验结果及其分析 |
5.4.1 静态图像测试 |
5.4.2 运动图像测试 |
5.4.3 实验分析 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
攻读硕士期间发表的论文及所取得的成果 |
致谢 |
(8)桌面式光场显示关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 引言 |
1.2 桌面式光场显示技术国内外研究现状 |
1.3 桌面式光场显示技术的研究意义 |
1.4 论文的主要内容和结构安排 |
参考文献 |
第二章 桌面式三维光场显示技术基础 |
2.1 立体视觉原理 |
2.2 光场显示原理 |
2.2.1 光场显示模型 |
2.2.2 集成成像的光场显示原理 |
2.2.3 基于全息功能屏的光场显示原理 |
2.3 光学系统的理论基础 |
2.3.1 光学系统的像差 |
2.3.2 非球面光学系统 |
2.4 光场显示的评价方法 |
2.4.1 光学系统的成像质量评价 |
2.4.2 图像质量评价 |
2.5 本章小结 |
参考文献 |
第三章 低串扰、超密集视点的水平视差桌面式三维光场显示 |
3.1 辐辏调节矛盾问题 |
3.2 超密集视点的桌面式光场显示系统设计 |
3.3 超密集视点的采集和编码 |
3.4 超密集视点的串扰抑制设计 |
3.5 实时人眼瞳孔跟踪方法 |
3.6 实验结果与分析 |
3.7 本章小结 |
参考文献 |
第四章 大视角、高视点密度的全视差桌面式三维光场显示 |
4.1 全视差桌面式光场显示中视角和视点密度的矛盾 |
4.2 大视角和高视点密度的全视差桌面式光场显示系统设计 |
4.3 基于空间复用体素屏的图像采集和分组编码 |
4.4 非球面复合透镜阵列的设计 |
4.5 仿真分析和对比实验 |
4.5.1 基于空间复用体素屏和传统液晶面板显示对比 |
4.5.2 基于复合透镜联合全息扩散膜与传统单透镜显示对比 |
4.6 实验结果 |
4.7 本章小结 |
参考文献 |
第五章 大景深、360度环形视区的桌面式三维光场显示 |
5.1 现有集成成像桌面式三维光场显示系统存在的问题 |
5.1.1 传统集成成像桌面式三维光场显示系统的局限 |
5.1.2 基于圆锥透镜阵列的桌面式三维光场显示系统 |
5.1.3 面交织现象对的桌面式三维光场显示系统景深的影响 |
5.2 基于360度环形视区的桌面式光场显示系统扩大景深的方法 |
5.2.1 基于人眼位置的视点拟合编码算法 |
5.2.2 初始合成图像的计算 |
5.3 仿真分析和实验结果 |
5.4 本章小结 |
参考文献 |
第六章 总结与展望 |
6.1 研究内容与创新 |
6.2 不足与下一步研究方向 |
致谢 |
攻读博士期间发表的论文、专利 |
(9)网球轨迹测量系统研究与实现(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 网球轨迹测量系统 |
1.2.2 物体定位 |
1.2.3 物体检测 |
1.2.4 轨迹识别与预测 |
1.2.5 算法的硬件加速 |
1.3 本文主要研究内容 |
第二章 网球轮廓检测 |
2.1 运动物体检测 |
2.1.1 图像预处理 |
2.1.2 背景差法 |
2.1.3 光流法 |
2.1.4 帧间差分法 |
2.1.5 实验分析 |
2.2 网球轮廓中心坐标 |
2.2.1 直接法与最大内接圆法 |
2.2.2 一阶灰度矩法 |
2.2.3 局部动态阈值法 |
2.2.4 实验分析 |
2.3 静态物体检测 |
2.3.1 传统物体检测算法 |
2.3.2 基于深度学习的物体检测算法 |
2.4 基于改进YOLOv4 的网球检测 |
2.4.1 YOLOv4 的不足与改进 |
2.4.2 改进YOLOv4 的训练与测试 |
2.5 本章小结 |
第三章 网球场地坐标计算 |
3.1 双目立体视觉 |
3.1.1 成像模型与相机标定 |
3.1.2 三角测距 |
3.1.3 实验分析 |
3.2 标定板特征点检测 |
3.2.1 标定板特征点检测存在的不足 |
3.2.2 标定板区域检测 |
3.3 转换矩阵求解 |
3.3.0 转换矩阵求解算法 |
3.3.1 转换矩阵求解算法的不足 |
3.3.2 基于RANSAC的转换矩阵求解算法 |
3.4 本章小结 |
第四章 网球轨迹识别与落点预测 |
4.1 网球动力学模型 |
4.1.1 网球动力学分析 |
4.1.2 网球动力学方程的数值解 |
4.1.3 网球动力学模型参数估计 |
4.2 网球轨迹识别 |
4.2.1 轨迹点与轨迹匹配算法 |
4.2.2 轨迹识别算法 |
4.2.3 实验分析 |
4.3 网球落点坐标预测 |
4.3.1 基于多项式拟合的落点预测 |
4.3.2 基于卡尔曼滤波器的落点预测 |
4.3.3 基于无损卡尔曼滤波器的落点预测 |
4.3.5 实验分析 |
4.5 本章小结 |
第五章 网球轨迹测量的系统实现 |
5.1 系统框架 |
5.2 辅助功能模块 |
5.2.1 上位机 |
5.2.2 基于CUDA的算法优化设计 |
5.2.3 轨迹可视化 |
5.2.4 人工示教 |
5.3 网球轨迹测量实验 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
(10)基于数字图像相关的汽车轮胎高速滚动力学特性研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景与课题提出 |
1.2 相关研究发展历程和研究现状 |
1.2.1 轮胎传感滚动变形测量 |
1.2.2 轮胎滚动变形建模方法 |
1.2.3 轮胎接触印迹长度测量 |
1.2.4 轮胎滚动阻力系数测量 |
1.3 论文研究方法和技术路线 |
1.4 论文主要研究内容及结构 |
第2章 高速滚动轮胎非线性大变形理论建模 |
2.1 轮胎环模型建模基础 |
2.2 高速滚动柔性环轮胎建模 |
2.1.1 柔性环轮胎模型运动方程 |
2.1.2 分布载荷柔性环轮胎模型 |
2.3 基于轮胎模态试验的模型参数辨识 |
2.3.1 轮胎模态试验搭建与模态分析 |
2.3.2 柔性环轮胎模型各向刚度辨识 |
2.3.3 柔性环轮胎模型阻尼系数辨识 |
2.4 高速柔性环轮胎模型仿真结果分析 |
2.5 本章小结 |
第3章 非线性大变形全域数字图像测量方法研究 |
3.1 数字图像相关测量基础 |
3.1.1 相机坐标转换关系 |
3.1.2 数字图像相关原理 |
3.2 全局绝对节点数字图像相关方法 |
3.2.1 全局绝对节点坐标方法 |
3.2.2 改进的数字图像相关方法 |
3.3 单目胎面扭转装置与变形图像质量分析 |
3.3.1 单目胎面橡胶块扭转试验装置 |
3.3.2 散斑数字图像获取与质量评估 |
3.3.3 扭转变形分析区域与标记点设定 |
3.4 胎面橡胶块全域变形演变与影响机理分析 |
3.4.1 橡胶块扭转试验测量结果分析 |
3.4.2 橡胶块扭转状态切换点图像测量 |
3.4.3 橡胶块全域变形演变机理分析 |
3.4.4 标记点轨迹形态影响机理分析 |
3.5 本章小结 |
第4章 滚动轮胎非线性大变形全域数字图像测量 |
4.1 数字图像相关双目视觉测量基础 |
4.1.1 双目视觉系统测量模型 |
4.1.2 双目数字图像相关原理 |
4.2 轮胎滚动变形双目视觉测量系统 |
4.2.1 滚动变形双目测量系统搭建 |
4.2.2 滚动变形双目测量系统标定 |
4.3 轮胎散斑图像质量分析与区域设置 |
4.3.1 滚动轮胎表面随机散斑创建 |
4.3.2 散斑数字图像获取与质量分析 |
4.3.3 滚动轮胎坐标系与分析区域设置 |
4.4 滚动轮胎全域变形测量与特征分析 |
4.4.1 滚动轮胎相对耦合位移解算 |
4.4.2 滚动轮胎相对刚柔耦合位移 |
4.4.3 滚动轮胎全域相对柔性变形 |
4.5 本章小结 |
第5章 高速滚动轮胎变形特征分析与模型验证 |
5.1 高速视觉系统标定与图像质量分析 |
5.1.1 散斑图像获取与系统标定 |
5.1.2 高速散斑数字图像质量分析 |
5.2 高速滚动轮胎变形特征测量与分析 |
5.2.1 高速相对耦合位移测量与分析 |
5.2.2 高速相对柔性变形辨识与分析 |
5.2.3 高速滚动全域变形分布形态分析 |
5.2.4 柔性变形特征分布影响机理分析 |
5.3 分布载荷柔性环轮胎模型试验验证 |
5.4 本章小结 |
第6章 滚动轮胎接触印迹长度和滚阻系数数字图像测量 |
6.1 滚动轮胎时变接触印迹长度解算 |
6.1.1 滚动轮胎平面单元主应变率定义 |
6.1.2 轮胎标记点主应变率特征分析 |
6.1.3 滚动轮胎接触印迹长度辨识 |
6.1.4 滚动轮胎接触印迹长度解算 |
6.2 高速滚动轮胎滚动阻力系数解算 |
6.2.1 轮胎滚动阻力产生机理分析 |
6.2.2 标记点相对耦合位移解算 |
6.2.3 滚动轮胎动态接触半径解算 |
6.2.4 滚动轮胎动态径向偏距解算 |
6.2.5 高速滚动轮胎阻力系数解算 |
6.3 轮胎滚阻系数测量装置与方法验证 |
6.3.1 轮胎滚阻系数试验装置概述 |
6.3.2 滚阻系数测量结果精度分析 |
6.4 本章小结 |
第7章 全文总结与展望 |
7.1 全文总结 |
7.2 主要创新点 |
7.3 研究展望 |
参考文献 |
作者简介及在学期间取得的科研成果 |
致谢 |
四、高速运动物体视觉图像的畸变(论文参考文献)
- [1]多特征融合的高速运动物体跟踪方法研究[D]. 马璐. 西安理工大学, 2021(01)
- [2]三维光场精准再现关键技术研究[D]. 倪丽霞. 浙江大学, 2021(01)
- [3]基于高速摄像的鹰眼三维可视化系统研究[D]. 金沐祥. 武汉纺织大学, 2021(08)
- [4]智能化工业机器人视觉系统关键技术研究[D]. 王诗宇. 中国科学院大学(中国科学院沈阳计算技术研究所), 2021
- [5]基于单目视觉的汽车列车制动时序检测方法研究[D]. 王冠然. 吉林大学, 2021(01)
- [6]基于视觉的机械臂目标跟踪与抓取方法研究[D]. 王栋. 青岛科技大学, 2021(01)
- [7]弹载图像记录仪多曝光融合算法的研究[D]. 金怀智. 中北大学, 2021(09)
- [8]桌面式光场显示关键技术研究[D]. 王培人. 北京邮电大学, 2021(01)
- [9]网球轨迹测量系统研究与实现[D]. 戴世鑫. 电子科技大学, 2021(01)
- [10]基于数字图像相关的汽车轮胎高速滚动力学特性研究[D]. 高学亮. 吉林大学, 2020(01)