一、基于虚拟仪器的质量检测机器视觉系统的设计(论文文献综述)
孙贺,刘胜波,冷于浩,刘默嘉,丁涵[1](2022)在《基于机器视觉的轮胎表面缺陷检测系统的研究与应用》文中研究表明在传统的轮胎表面缺陷依靠人工检测,存在劳动强度高、受人的主观影响大以及效率低下的问题。针对这一现象,研究了一种基于机器视觉的轮胎表面缺陷3D检测系统。该系统依靠机器视觉系统获取检测轮胎的表面图像,然后创建3D模型、判定缺陷类型,最终实现实时自动预警,为轮胎生产商提供一种自动化检测方案。系统集成了先进的技术、软件和工具,配套的信息管控系统可以对轮胎型号和生产数据进行采集、存储、分析,以便在生产过程中实现更高效、更可靠的质量控制,具有较高的实际应用推广价值。
封居强,黄凯峰,王晋,杨伟虎,叶海明[2](2021)在《基于虚拟技术与机器视觉的多规格圆孔工件质量检测》文中研究指明针对人工检测多规格圆孔加工件质量效率低下、一致性差等问题,设计一种基于虚拟技术与机器视觉结合的智能识别检测系统。该系统采用LabVIEW软件平台和海康工业相机开发,整个系统主要采用IMAQ Vision视觉模块获取工件图像,进行标定、几何矫正、裁剪、灰度化、二值化等预处理;借用Assistant函数库对工件进行识别、分类、轮廓分析和圆孔半径检测。采用2种不同规格的30片工件进行质量检测,结果表明该系统识别率为100%、缺陷检测准确率为98%;整个系统在保证准确度的情况下检测速度提高了3倍,有效降低了生产成本。
郝树新,林锦州,刘芳[3](2021)在《机器视觉在汽车质量检验领域的应用研究》文中研究表明随着汽车行业自动化程度的不断提升,传统的人工质检方式已经无法满足日益提高的汽车质量检验效率需求。机器视觉技术以其快速、准确、智能的特点在汽车质量检验领域得到快速发展。本文通过对机器视觉检验技术的原理进行分析,研究机器视觉在汽车质量检验领域的应用场景,并分析其未来的发展趋势。
胡春生,魏红星,闫小鹏,李国利[4](2022)在《码垛机器人的研究与应用》文中研究说明通过对码垛机器人相关文献进行归纳整理,从结构优化、末端执行机构、运动规划、运动控制、机器人编程、国内应用等六个方面对码垛机器人进行了概述,分别阐述了机器人本体结构优化、运动规划的常见方法、机器人编程的常用手段、机器人控制的常用方法、避障规划的难点、多机器人协同的特殊性、各类型末端执行机构的优缺点,随后针对我国的码垛机器人应用现状,提出了对应的解决措施,针对码垛机器人关键技术的研究,指出了未来的发展方向和研究重点,可为相关研究人员提供参考。
周师发[5](2021)在《管状件内表面缺陷视觉检测系统研究》文中认为管状物件内表面的缺陷是其质量点之一,由于其内部空间有限和光线不足,常规的表面检测设备和方法不适用,目前常采用的以内窥镜为主要工具的人工目视检测方法,又存在着检测效率低下、无定量检测标准等缺陷,因此探索管状物件内表面的缺陷的检测方法很有意义。论文针对细长管状件,内径15mm~29mm,外径17mm~40mm,长度5mm~115mm,重量不大于5kg,开展了基于机器视觉技术的管状物件内表面缺陷光机电检测系统的研究,重点解决了照明均匀性、不同直径物料的适应性、圆形内壁图像的无缝拼接等关键技术。论文的主要工作有:1)给出了管状件内表面缺陷检测系统的总体方案,设计了旋转模块和直线模块,确定了关键参数的确定以及相关硬件设备的选型;2)设计了高均匀性光源,通过方程式求解法,理论分析,求解出一组方程来设计自由曲面,再通过软件Matlab计算出自由曲面的面型,得到二次透镜的组合,使得光线经过透镜组得到均匀的圆形且汇聚的光斑,提高了光斑均匀度,进而满足系统照明要求;3)设计了可变工作距离的液态远心镜头,先是采用P/W法确定远心光学系统的初始结构,再对远心系统进行优化,进而得到符合论文要求的远心镜头,再融合液体镜片,进行光学优化设计,得到液态远心镜头,可以毫秒级别变焦,拍摄不同距离的图像,不同于常规机械式移动镜头上下运动拍摄不同距离的图像;4)提出了圆形内壁图像的无缝拼接方法,采用SURF相关的图像匹配手段对多幅小视场序列图像进行融合,获得管件内表面的完整圆周二值化形貌;再根据缺陷的特征像素数量,计算缺陷的实际尺寸。最后可根据设定的缺陷尺寸阈值,实现缺陷的等级划分和数量的统计。5)搭建了基于机器视觉技术的管状物件内表面缺陷光机电检测系统,分析了系统的机械运动误差,并进行了实验验证研究,系统的最大径向误差0.265mm,满足景深误差小于0.5mm的要求。
李根龙[6](2021)在《面向机器人装配的目标识别与位姿获取技术研究》文中研究表明随着工业机器人的广泛应用,我国制造业水平快速提高。然而,传统的示教型工业机器人已经不能适应多品种、小批量的生产装配模式。现阶段,具有视觉的智能化工业机器人逐渐成为制造企业未来发展的主方向。在实际生产过程中,要使机器人能够自主高效地完成产品的装配任务,零件的识别和位姿获取是机器人抓取和装配的前提。现有的目标识别和位姿估计方法受零件纹理单一、形状相似以及环境噪声等因素的影响,算法的精度和效率还有待提高。为此,本文以工业生产领域的装配零件为研究对象,将零件CAD模型点云与视觉点云数据相结合,研究基于深度相机的目标识别和位姿获取方法。本文主要工作如下:(1)KinectV2视觉系统的标定与点云数据预处理。基于KinectV2视觉系统标定原理,采用Zhang氏平面模板标定法完成了相机的标定;针对视觉点云数据量大、分布不均以及噪声较多的问题,采用点云滤波算法对其进行滤波,实现了视觉点云的降采样、杂乱背景去除以及噪声离群点的剔除;同时,采用RANSAC算法和基于欧式距离的聚类分割算法,实现了场景中零件视觉点云的分割。通过对视觉点云数据进行预处理,为后续的目标识别和位姿获取提供良好的数据基础。(2)基于点云全局特征的零件识别方法研究。基于零件三维CAD模型,通过设置虚拟相机,完成了点云模型库的构建;针对现有的VFH点云全局特征描述子对于相似位姿下的不同零件容易产生误识别的问题,提出一种改进的VFH特征描述子;采用基于kd-tree的最近邻搜索算法,完成视觉点云在CAD模型点云库中的检索识别。实验结果表明,本文识别算法对于不同类型零件的整体识别准确率为84.5%,在大拍摄角度[58.28°,90°]区间内,识别准确率可达到100%;对于同类型不同尺寸的零件整体识别准确率为54.6%,在大拍摄角度[58.28°,90°]区间内,识别准确率提升至77.5%。最后在仿真数据结果的基础上,建立了光轴零件视觉点云的长度尺寸失真与拍摄角度的关系模型,为仿真实验结论提供了理论依据。(3)基于点云配准的目标零件位姿估计方法研究。针对ICP算法在初始点云位姿相差较大的情况下迭代容易陷入局部最优的问题,本文将SAC-IA与NDT粗配准算法分别与ICP算法相结合进行点云配准。仿真实验结果表明,SAC-IA+ICP算法组合在配准误差和耗时方面均优于NDT+ICP算法组合;实际零件配准结果显示,SAC-IA+ICP算法的平均均方根误差为0.951mm,平均耗时为809ms,在配准精度和实时性方面均能满足实际装配要求。(4)面向装配的KinectV2目标识别与位姿获取实验。使用KinectV2相机分别采集不同类型零件以及同类型不同尺寸零件的视觉点云,完成了识别算法的精度验证实验,并对实验结果中出现的误识别原因进行了分析;基于手眼相机标定原理,完成了KinectV2相机的标定实验,建立了相机坐标系与机器人基坐标之间的转换关系;基于相对测量法,通过对机器人手爪进行任意旋转平移变换,计算变换前后的位姿相对值,并与真实位姿相对值进行比较来验证位姿获取算法的精度,实验结果表明,位姿获取算法的最大平移误差为3.178mm,最大旋转角度为1.433°。
殷文茜[7](2021)在《双目视觉系统标定方法的研究》文中进行了进一步梳理机器视觉检测主要是通过采集待测物体的图像,对其进行特征提取和分析计算,从而实现对待测物体的检测和测量等功能。相机标定是实现机器视觉检测的基础,标定精度对整个检测系统的准确度有着重要影响。目前课题组针对曲面包装上的商品条码进行质量检测技术研究。由于待测物体为空间曲面结构,存在视觉畸变,目前尚无有效设备和技术可以完成检测,因此课题组采用双目视觉系统进行检测。根据双目图像之间的空间关系重构出平面的条码区域图像,然后进行特征提取和分析计算,从而完成条码质量检测。本文是课题研究的重要组成部分,任务是对双目视觉系统的标定方法进行研究,目的一是获取标定参数,确定图像与现实世界的转换关系,实现从图像中检测出实际数据;二是减少镜头畸变的影响,提高检测精度。本文主要工作包括以下四个部分:第一,构建双目视觉系统。结合待测目标的实际情况制定双目视觉系统的设计方案。完成左右相机的空间结构设计,并根据检测需求完成相机、镜头等硬件设备的选型,搭建双目视觉系统。第二,单目相机标定。根据采集窗口大小,设计合适尺寸的棋盘格标靶图像。首先使用采集装置分别获取左右目标靶图像。然后进行特征提取,设计基于图像形态学和最小凸包相结合的方法对棋盘格角点进行提取,并对角点坐标进行亚像素化处理。最后采用基于平面模板法的标定原理对单个相机完成标定,求得相机参数。第三,立体标定。根据左右相机坐标系的相对位置确定立体标定参数。计算出在空间中右相机相对于左相机的位姿,即获取两个相机之间的旋转矢量和平移矩阵。为后续完成曲面条码的三维重建提供计算依据。第四,误差分析与补偿。通过镜头径向畸变模型对采集图像的畸变进行矫正,利用角点的重投影误差构建优化函数,分别对左右相机标定参数进行优化。根据角点在左右图像上的图像坐标重建其三维坐标,以实际物理坐标和重建坐标之间的偏移量建立误差函数,对标定参数进行补偿。基于棋盘格角点行列保持线性一致的事实,统计重建角点的非线性偏移量,建立优化模型,进一步优化参数。本文在Visual Studio环境下进行设计开发,完成了双目相机的标定计算,将标定参数与条码的检测算法相结合。通过双目采集装置共采集了 600张标靶图像进行测试,将本文方法与传统方法设置对比实验。通过重投影误差和重建点偏移误差两方面对本文方法的精度进行评价,结果均优于传统方法,证明了本文设计的角点检测算法及对误差的分析补偿可有效提高双目相机标定精度。本文选取40个曲面商品外包装上的条码进行质量检测测试,结果表明,双目相机标定精度的提高可有效提高系统检测精度。
邓超[8](2021)在《面向智能物流的机械臂自主分拣系统设计》文中研究表明近年来,随着物流行业的飞速发展,仓储中的商品种类愈加繁多,导致分拣任务复杂且需要大量的劳动力,将基于视觉的机械臂技术应用在物流分拣任务中可以解决上述问题。而基于视觉的机械臂容易受到外界环境的影响,因此如何提高机械臂在复杂环境下(光照变化、障碍物)的智能化水平成为当前研究的热点问题。基于此,本文以ROS作为开发平台,以ABB IRB120机械臂作为操作平台,设计了一套面向物流行业的机械臂自主分拣系统,该系统满足复杂场景下分拣任务的实时性及精度要求。本文主要研究工作及研究成果如下:(1)针对机械臂对未知目标的自主分拣问题,本文设计了一套基于视觉的工业机器人自主分拣系统。其方案的主要运行机制是:首先,相机捕获一帧图像,利用基于深度学习的目标检测算法对机器人操作平台上所有目标进行识别与检测;然后根据识别与检测结果通过人机交互的选择要抓取的目标;之后,仅仅对用户所选目标利用目标检测算法进行检测,获得待抓取目标的当前图像特征;最后通过图像配准技术和坐标转换技术得到目标物体在机器人基座坐标系下的3D坐标;基于此,向机械臂控制器发送待抓取目标物体的3D坐标,最后根据轨迹规划算法控制机械臂完成操作台上的分拣任务。通过相应的实验研究证明了此系统满足毫米级的抓取要求。(2)针对Intel RealSense D435深度相机与ABB IRB120机械臂构成的机器人视觉系统的标定问题,本文首先在ROS下采用基于张正友算法的camcracal ibration功能包对相机内部参数进行标定,获得其内参矩阵和畸变参数;然后对可视化标定easyhandeye功能包所涉及的参数(设备型号、标定板参数、IP等)进行配置,完成相机与机械臂组成的机器人视觉系统的标定(也称手眼标定),最终获得相机坐标系到机械臂基座坐标系下的转换关系。(3)针对在操作台上随意放置的多个目标物体(无重叠)的三维位置估计问题,本文首先采用Yolo v3算法获取待抓取目标的图像特征,然后对相机采集到的彩色图和深度图进行图像配准,最后结合坐标转换技术得到目标在机械臂基座坐标系下的3D坐标信息。(4)针对机械臂的运动控制仿真问题,本文首先在ROS中通过URDF文件创建机械臂模型,并分别对RobotStudio端(服务端)和ROS端(客户端)的通信文件进行配置;然后通过基于TCP/IP的Socket接口建立二者之间的通信;之后在笛卡尔空间下利用直线插补算法和圆弧插补算法对机械臂的运动轨迹进行规划;最后通过ROS端中的MoveIt!对RobotStudio端的机械臂进行仿真控制。(5)针对在实际应用中实体ABB机械臂与PC的通信依赖于RobotStudio软件,本文设计的自主分拣系统摒弃了 RobotStudio软件自带的通信模式,首先向实体控制器配置与ROS通信相关的通信文件以及对轨迹和关节点数据定义的文件等,然后通过ROS与实体机械臂建立通信,最后完成了整个自主分拣系统实验平台的搭建,并设置了目标物体在不同位姿下的12组实验对手眼标定结果以及所采用算法性能进行定量评估,同时还设置了6组实物实验分别对仓储中的多种商品以及模拟传送带环境对快递盒进行自主分拣实验,根据对实验结果分析可知,该机械臂自主分拣系统的精度和抓取成功率满足对所设计系统的要求,验证了本文系统方案的可行性。
高金鹏[9](2021)在《嵌入式图像处理平台在机器人快速堆叠系统中的应用研究》文中研究指明回转式空气预热器是大型火电机组的核心设备之一,本文针对回转式空气预热器的蓄热元件自动组装生产问题,设计了 一种整合机器视觉检测和机器人堆叠装框的全自动生产系统,提高了生产过程的自动化水平,显着降低了现场操作人员的劳动强度,应用了灵活的图像检测算法,可以适配不同规格尺寸的蓄热板。本文的主要研究工作包括:1、针对蓄热元件生产线的现场环境,本文提出一套基于机器视觉的动态抓取堆叠方案,对单目采集系统、图像处理平台、HIWIN机器人抓取系统以及桁架机器人装框系统进行选型,实现了硬件平台的搭建。2、针对不同尺寸蓄热板位置信息和姿态信息的检测问题,本文研究了改进的霍夫变换检测算法和最小外接矩形检测算法两种算法,基于类矩形的形状特征实现了蓄热板的识别与检测。本文通过设计图形界面实现了良好的人机交互功能,达到了灵活检测不同尺寸蓄热板的目的,为后续的机器人抓取打下基础。3、针对视觉引导的HIWIN机器人系统中不同坐标系的转换问题,本文研究了相机坐标系、传送带坐标系和机器人工具坐标系的标定方案,通过系统建模实现了整体抓取系统坐标系之间的位姿解算,达到了视觉系统和HIWIN机器人系统协同配合的目的。4、针对蓄热板的动态抓取问题,本文提出结合外触发器和编码器实时反馈的解决方案。机器人控制器利用编码器反馈的脉冲数统计传送带前进长度,计算拍照时刻与抓取时刻的位置变化量实现蓄热板动态定位,并通过修正梯形加速度曲线进行轨迹规划,实现了蓄热板的动态抓取。经过性能测试,绝对误差和相对误差为Ew=0.13cm,Ec= 0.24%,达到了位置及速度的精度要求,满足了实时性要求。
李沁阳[10](2021)在《基于单目视觉的工业机器人去毛刺平台开发应用研究》文中指出为了适应新型国防军工、汽车制造、半导体生产等领域,兴起于上世纪50年代的工业机器人,急需将传统制造技术与现代信息技术融合。在现代化生产车间,将机器视觉系统加装到机器人本体上,赋予机器臂视觉功能,通过“手—眼”之间协同工作,可以自动完成各类工件的焊接、搬运、分拣、加工等任务,大大提高企业生产效率。现阶段,针对小批量、形状不一、尺寸各异的小型工件识别检测、去毛刺应用,大多采用双目视觉定位的办法,这种办法模拟人双眼视觉三维成像过程,对硬件精密性和设备安装要求较高,后台图像处理算法耗时长且复杂,不能根据工业现场灵活搭建。本文在实验室工业机器人平台上,开发设计一种基于单目视觉的工业机器人手眼协同应用平台,该平台可以将工件的位姿信息及边缘轮廓信息传递给机械人控制器,控制器引导机器人末端执行器实现工件棱边毛刺的去除,最后完成对应的视觉系统和机器人系统的研究与实验,验证手眼协同系统的精确度。考虑各设备结构尺寸大小与相对安装位置(机器视觉装置不能影响机器臂自由活动)、兼容性(视觉处理软件与机器人控制器可以互联互通),搭建加装机器视觉装置的工业机器人去毛刺平台,设计特定光源装置,减少进入镜头的反射光。采用相机固定于机器人本体外,眼不随手动(Eye-to-Hand)的结合方式,进行二维空间层识别。联合Halcon软件和C#语言,开发设计了对应的上位机软件。分析工业机器人末端执行器、工业相机以及待识别工件三者相对空间位置关系。通过相机标定和手眼标定两个步骤,将像素层级大小转换为实际的物理层级尺寸。最后通过视觉测量已知尺寸工件,验证了手眼标定的精确性。对原始图像进行预处理,包括消除表面噪声和增强工件边缘两个预处理步骤;划定目标检测范围(ROI,即感兴趣区域),减少图像处理区域。比较不同边缘检测方法,最终选择Canny算子对每个边缘目标轮廓进行检测,采用基于相似性模板匹配方法提取工件模板,匹配成功后对每个目标提取完整连续的像素边缘点集,拟合成机器人运动路径。通过TCP/IP以太网,研究并建立了相机、上位机软件和工业机器人之间实时可靠的通信机制,根据提取到的工件边缘关键特征点,生成了加工轨迹,完成了工件边缘轮廓加工实验,所开发的平台在匹配成功率、轨迹精度以及处理时间三个方面满足技术指标要求。该系统具有软件开发周期短、图像处理算法精度高、通信机制速度快等优点,为工业机器人的手眼协同工作方式的广泛应用提供了参考。
二、基于虚拟仪器的质量检测机器视觉系统的设计(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于虚拟仪器的质量检测机器视觉系统的设计(论文提纲范文)
(1)基于机器视觉的轮胎表面缺陷检测系统的研究与应用(论文提纲范文)
1 轮胎检测系统构成 |
1.1 系统组成 |
(1)激光扫描轮廓仪与RGB相机 |
(2)视觉分析软件 |
(3)用户交互系统 |
(4)模具预警系统 |
(5)新增型号检测内容配置系统 |
1.2 关键技术 |
1.3 视觉系统主要工作过程 |
2 应用效果 |
(1)提高检测效率 |
(2)降低检测成本 |
(3)提升产品质量 |
3 结束语 |
(2)基于虚拟技术与机器视觉的多规格圆孔工件质量检测(论文提纲范文)
0 引言 |
1 系统构成及基本原理 |
2 硬件系统的设计 |
2.1 工件分析 |
2.2 图像采集模块 |
2.3 运动控制模块 |
3 视觉处理系统设计与分析 |
3.1 检测界面的设计 |
3.2 系统程序设计 |
4 总结 |
(3)机器视觉在汽车质量检验领域的应用研究(论文提纲范文)
1 引言 |
2 机器视觉检验原理 |
3 机器视觉在汽车质检领域应用场景 |
3.1 工艺检测 |
3.2 尺寸检验 |
3.3 虚拟装配 |
3.4 错漏装检测 |
4 结语 |
(4)码垛机器人的研究与应用(论文提纲范文)
1 码垛机器人研究内容 |
1.1 码垛机器人结构优化 |
1.2 末端执行机构 |
1.3 码垛机器人的运动规划 |
1.3.1 路径规划 |
(1)单个机器人路径规划 |
(2)多机器人协同路径规划 |
1.3.2 轨迹规划 |
1.3.3 避障问题 |
1.3.4 多机器人协同与单个机器人运动规划的联系与区别 |
1.3.5 机器人运动规划的关键技术及难点 |
1.4 机器人运动控制 |
1.5 机器人的编程 |
2 国内应用现状 |
3 国内码垛机器人发展存在的问题及对策 |
3.1 国内码垛机器人存在的问题 |
(1)智能化程度较低 |
(2)核心部件依赖进口 |
(3)智能算法自主研发能力差 |
(4)标准化程度较差 |
3.2 解决的对策 |
(1)核心零部件国产化 |
(2)加强码垛机器人智能化建设 |
(3)算法优化 |
(4)构建标准化体系 |
4 总结与展望 |
(5)管状件内表面缺陷视觉检测系统研究(论文提纲范文)
致谢 |
摘要 |
Abstract |
1 绪论 |
1.1 论文的研究目的与意义 |
1.2 机器视觉技术及其发展状况 |
1.2.1 机器视觉技术简介 |
1.2.2 机器视觉技术的发展状况 |
1.3 管状件内表面基于机器视觉的缺陷检测法 |
1.4 论文的主要内容及框架 |
2 管状件内表面缺陷视觉检测系统总体设计 |
2.1 管状件内表面缺陷视觉检测要求及流程 |
2.2 管状件内表面缺陷视觉检测系统总体设计 |
2.2.1 系统总体设计 |
2.2.2 系统中硬件功能设计 |
2.2.3 系统中软件功能设计 |
2.3 本章小结 |
3 视觉模块设计与分析 |
3.1 视觉模块设计整体分析 |
3.1.1 机器视觉系统构成 |
3.1.2 视觉模块主要组成部分 |
3.2 高均匀性点光源设计 |
3.2.1 高均匀性二次光学透镜设计技术路线 |
3.2.2 二次光学透镜的自由曲面轮廓曲线方程建立 |
3.2.3 二次透镜建模与仿真分析 |
3.2.4 高均匀性点光源外壳设计 |
3.3 电控可调焦液态远心镜头设计 |
3.3.1 镜头光学结构及电控设计 |
3.3.2 采用P/W法确定远心光学系统的初始结构 |
3.3.3 远心系统的优化原理和方法 |
3.3.4 本论文物方远心镜头光学设计 |
3.3.5 液态远心镜头的光学特性 |
3.4 本章小结 |
4 缺陷检测图像处理软件设计 |
4.1 图像拼接方法 |
4.1.1 特征点检测原理 |
4.1.2 数据布局 |
4.1.3 缩放空间棱锥体创建 |
4.1.4 关键点过滤 |
4.1.5 特征描述算子 |
4.1.6 图像匹配 |
4.2 缺陷尺寸测量 |
4.2.1 图像二值化处理 |
4.2.2 缺陷的尺寸计算 |
4.3 本章小结 |
5 系统实现及实验验证 |
5.1 系统实现 |
5.2 系统机械运动误差分析及测量 |
5.2.1 轴向误差分析 |
5.2.2 径向误差分析 |
5.2.3 机械误差测量结果 |
5.3 缺陷检测实验 |
5.3.1 缺陷检测系统工作流程 |
5.3.2 缺陷检测实验验证 |
5.4 影响图像精度的因素分析 |
5.5 本章小结 |
6 结论与展望 |
6.1 全文总结 |
6.2 未来展望 |
参考文献 |
作者简历 |
科研成果 |
(6)面向机器人装配的目标识别与位姿获取技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 目标识别研究现状 |
1.2.2 位姿获取研究现状 |
1.3 主要研究内容及结构安排 |
1.3.1 主要研究内容 |
1.3.2 论文结构安排 |
2 KinectV2视觉系统的标定与点云数据预处理 |
2.1 引言 |
2.2 KinectV2视觉系统原理及硬件构成 |
2.3 KinectV2视觉系统的标定 |
2.3.1 摄像机模型 |
2.3.2 摄像机标定方法 |
2.4 点云数据预处理 |
2.4.1 三维点云数据 |
2.4.2 点云数据滤波 |
2.4.3 点云数据分割 |
2.5 KinectV2标定实验及点云预处理实验 |
2.5.1 KinectV2标定实验结果 |
2.5.2 点云预处理结果 |
2.6 本章小结 |
3 基于点云全局特征的零件识别方法 |
3.1 引言 |
3.2 点云数据表面法线 |
3.3 点云特征描述子 |
3.3.1 PFH/FPFH特征描述子 |
3.3.2 VFH特征描述子 |
3.3.3 改进的VFH特征描述子 |
3.4 零件点云描述子数据库的建立 |
3.4.1 单视角点云的构建 |
3.4.2 改进的VFH特征描述子数据库的建立 |
3.5 基于kd-tree的最近邻搜索算法 |
3.6 零件识别实验及结果分析 |
3.6.1 识别不同类型零件 |
3.6.2 识别相同类型不同尺寸零件 |
3.7 本章小结 |
4 基于点云配准的目标零件位姿估计技术研究 |
4.1 引言 |
4.2 点云配准原理 |
4.2.1 点云的刚体变换 |
4.2.2 刚体变换矩阵求解方法 |
4.3 点云粗配准算法 |
4.3.1 SAC-IA算法 |
4.3.2 3D-NDT算法 |
4.4 ICP精确配准算法 |
4.5 配准实验与分析 |
4.5.1 配准精度评价指标 |
4.5.2 实验对比与分析 |
4.6 本章小结 |
5 面向机器人装配的目标识别与位姿获取实验 |
5.1 引言 |
5.2 实验硬件平台 |
5.3 零件识别精度验证实验 |
5.3.1 不同类型零件识别实验 |
5.3.2 同类型不同尺寸零件识别实验 |
5.4 KinectV2相机手眼标定实验 |
5.5 零件位姿获取实验 |
5.6 零件位姿精度验证实验 |
5.7 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
致谢 |
参考文献 |
(7)双目视觉系统标定方法的研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题背景及意义 |
1.2 国内外发展现状 |
1.2.1 条码质量检测技术的发展现状 |
1.2.2 双目视觉检测技术的发展现状 |
1.2.3 相机标定技术的发展现状 |
1.3 本文主要研究内容 |
2 双目视觉系统的构建 |
2.1 双目采集系统设计方案 |
2.1.1 检测需求 |
2.1.2 结构模式 |
2.1.3 结构参数 |
2.2 系统部件的选型 |
2.2.1 相机选择 |
2.2.2 镜头选择 |
2.3 本章小结 |
3 单目相机标定 |
3.1 相机成像模型 |
3.1.1 常用坐标系 |
3.1.2 线性相机模型 |
3.1.3 非线性相机模型 |
3.2 单目相机标定原理 |
3.3 单目相机标定步骤 |
3.3.1 设计标靶图像 |
3.3.2 图像采集 |
3.3.3 基于图像形态学的角点检测 |
3.3.4 求解相机参数 |
3.3.5 求解畸变因子 |
3.4 角点检测实验与分析 |
3.5 本章小结 |
4 立体标定 |
4.1 双目立体视觉系统 |
4.1.1 平行式双目视觉系统 |
4.1.2 汇聚式双目视觉系统 |
4.1.3 双目视觉系统中的极线约束 |
4.2 立体标定实现原理 |
4.3 本章小结 |
5 误差分析与补偿 |
5.1 误差来源 |
5.2 误差分析 |
5.2.1 成像误差分析 |
5.2.2 空间误差分析 |
5.3 误差修正 |
5.3.1 成像误差修正 |
5.3.2 空间误差修正 |
5.4 本章小结 |
6 系统测试和实验数据分析 |
6.1 系统开发 |
6.1.1 开发平台 |
6.1.2 系统界面及功能介绍 |
6.2 双目相机标定实验结果与分析 |
6.2.1 单目标定实验结果与分析 |
6.2.2 立体标定实验结果与分析 |
6.3 曲面条码质量检测实验 |
6.3.1 曲面商品条码图像重构 |
6.3.2 条码质量参数分析计算 |
6.3.3 实验结果与分析 |
6.4 本章小结 |
7 总结与展望 |
7.1 总结 |
7.2 展望 |
致谢 |
参考文献 |
(8)面向智能物流的机械臂自主分拣系统设计(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内研究现状 |
1.3 本文主要研究内容及章节安排 |
2 机器人自主分拣系统平台设计方案 |
2.1 引言 |
2.2 自主分拣系统的总体方案 |
2.3 自主分拣系统硬件平台 |
2.3.1 ABB IRB120 机械臂 |
2.3.2 Intel Realsense深度相机 |
2.3.3 末端执行器 |
2.4 自主分拣系统软件平台 |
2.4.1 ROS系统特点 |
2.4.2 ROS系统架构 |
2.5 本章小结 |
3 机器人视觉系统设计 |
3.1 引言 |
3.2 Intel Realsense相机内参标定 |
3.2.1 相机成像模型 |
3.2.2 相机成像原理 |
3.2.3 标定过程及结果 |
3.3 机器人与相机位置标定(手眼标定) |
3.3.1 机器人视觉系统分类 |
3.3.2 手眼标定原理 |
3.3.3 标定过程及结果 |
3.4 目标特征获取 |
3.5 彩色图与深度图配准 |
3.6 本章小结 |
4 机械臂运动控制仿真研究 |
4.1 引言 |
4.2 仿真软件及Move It! |
4.2.1 3D可视化工具Rviz |
4.2.2 Robot Studio仿真软件 |
4.2.3 机械臂运动控制功能包Move It! |
4.3 Robot Studio与 ROS建立通信 |
4.3.1 Robot Studio端(服务端)软件配置 |
4.3.2 ROS端(客户端)软件配置 |
4.3.3 Robot Studio端与ROS端数据通信 |
4.4 笛卡尔空间轨迹规划 |
4.4.1 直线轨迹规划 |
4.4.2 圆弧轨迹规划 |
4.5 机械臂运动控制仿真实验 |
4.5.1 直线轨迹规划仿真 |
4.5.2 圆弧轨迹规划仿真 |
4.6 本章小结 |
5 机械臂自主分拣系统实验测试与分析 |
5.1 引言 |
5.2 实验平台的搭建 |
5.3 机器人视觉系统测试与分析 |
5.4 机械臂自主分拣系统实验验证 |
5.5 误差分析 |
5.6 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(9)嵌入式图像处理平台在机器人快速堆叠系统中的应用研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题研究背景 |
1.2 国内外研究现状及意义 |
1.3 论文主要研究工作 |
2 基于视觉伺服的蓄热板抓取系统设计 |
2.1 系统组成与开发环境简介 |
2.1.1 蓄热板抓取系统总体结构 |
2.1.2 系统运动分析 |
2.2 图像处理平台 |
2.2.1 嵌入式处理平台 |
2.2.2 光源 |
2.2.3 相机 |
2.2.4 镜头 |
2.3 HIWIN机器人系统 |
2.4 桁架机器人系统 |
2.5 本章小结 |
3 基于类矩形轮廓的工件识别算法 |
3.1 图像获取 |
3.2 图像预处理 |
3.2.1 色域空间转换 |
3.2.2 闭运算 |
3.2.3 轮廓筛选 |
3.3 边缘特征提取 |
3.3.1 边缘检测概述 |
3.3.2 边缘检测算子介绍 |
3.3.3 边缘检测实验结果分析 |
3.4 工件识别方法概述 |
3.5 基于改进霍夫变换的类矩形检测算法 |
3.5.1 蓄热板检测方法研究 |
3.5.2 交点区域预判研究 |
3.5.3 交点匹配方法研究 |
3.6 基于最小外接轮廓的类矩形检测算法 |
3.6.1 获取最小外接轮廓 |
3.6.2 主轴法研究与分析 |
3.6.3 算法性能分析 |
3.6.4 矢量数据获取 |
3.7 本章小结 |
4 基于视觉引导的HIWIN机器人堆叠系统 |
4.1 相机建模 |
4.2 标定工具坐标系 |
4.2.1 相机坐标系标定 |
4.2.2 HIWIN机器人工具坐标系标定 |
4.3 传送带坐标系建模 |
4.3.1 相机-传送带-机器人位置关系 |
4.3.2 相机-传送带-机器人标定步骤 |
4.4 HIWIN机器人快速堆叠系统 |
4.5 目标的动态表示 |
4.5.1 单个目标表示 |
4.5.2 多个目标筛选 |
4.6 快速堆叠系统动作规划 |
4.6.1 快速堆叠系统路径规划 |
4.6.2 快速堆叠系统轨迹规划 |
4.6.3 计算抓取位置 |
4.7 本章小结 |
5 应用测试与分析 |
5.1 堆叠系统总体结构 |
5.2 现场总体软件流程介绍 |
5.3 软件调试 |
5.3.1 串口通信 |
5.3.2 相机SDK开发 |
5.3.3 性能测试 |
5.3.4 界面设计 |
5.4 应用检验 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
(10)基于单目视觉的工业机器人去毛刺平台开发应用研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景与研究意义 |
1.2 国内外研究现状 |
1.2.1 工业机器人加工工件研究现状 |
1.2.2 机器视觉研究现状 |
1.2.3 机器人与机器视觉配合应用研究现状 |
1.3 研究思路及技术路线 |
1.4 论文结构安排 |
1.5 本章小结 |
2 基于单目视觉的工业机器人去毛刺平台搭建 |
2.1 技术指标与系统方案设计 |
2.2 系统的主要硬件组成及选型参数设定 |
2.2.1 工业机器人选型 |
2.2.2 工业相机选型 |
2.2.3 工业镜头选型 |
2.2.4 光源选型 |
2.3 视觉识别定位系统软件模块开发 |
2.3.1 机器视觉图像处理软件设计 |
2.3.2 机器视觉图像处理软件各模块功能 |
2.4 本章小结 |
3 相机标定和机器人手眼标定 |
3.1 相机成像模型 |
3.2 张正友法相机标定 |
3.3 九点标定法机器人手眼标定 |
3.4 图像测量精度实验 |
3.5 本章小结 |
4 基于单目视觉的工件图像预处理与识别定位 |
4.1 工件图像的采集与预处理 |
4.1.1 图像滤波与边缘增强 |
4.1.2 图像形态学运算 |
4.2 工件识别定位算法研究 |
4.2.1 Canny算子边缘检测 |
4.2.2 图像目标范围界定 |
4.2.3 基于相似性的模板匹配实验 |
4.3 本章小结 |
5 基于图像识别的工业机器人加工轨迹生成与功能测试 |
5.1 机器人、相机、上位机通信 |
5.1.1 通信系统硬件组成 |
5.1.2 通信连接设置 |
5.2 机器人加工轨迹生成与功能测试 |
5.2.1 视觉功能测试 |
5.2.2 机械臂功能测试 |
5.3 实验结果分析 |
5.4 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
参与的项目 |
申请专利 |
获奖 |
四、基于虚拟仪器的质量检测机器视觉系统的设计(论文参考文献)
- [1]基于机器视觉的轮胎表面缺陷检测系统的研究与应用[J]. 孙贺,刘胜波,冷于浩,刘默嘉,丁涵. 工业控制计算机, 2022(01)
- [2]基于虚拟技术与机器视觉的多规格圆孔工件质量检测[J]. 封居强,黄凯峰,王晋,杨伟虎,叶海明. 组合机床与自动化加工技术, 2021(11)
- [3]机器视觉在汽车质量检验领域的应用研究[J]. 郝树新,林锦州,刘芳. 时代汽车, 2021(21)
- [4]码垛机器人的研究与应用[J]. 胡春生,魏红星,闫小鹏,李国利. 计算机工程与应用, 2022(02)
- [5]管状件内表面缺陷视觉检测系统研究[D]. 周师发. 浙江大学, 2021
- [6]面向机器人装配的目标识别与位姿获取技术研究[D]. 李根龙. 西安理工大学, 2021
- [7]双目视觉系统标定方法的研究[D]. 殷文茜. 西安理工大学, 2021(01)
- [8]面向智能物流的机械臂自主分拣系统设计[D]. 邓超. 西安理工大学, 2021(01)
- [9]嵌入式图像处理平台在机器人快速堆叠系统中的应用研究[D]. 高金鹏. 西安理工大学, 2021(01)
- [10]基于单目视觉的工业机器人去毛刺平台开发应用研究[D]. 李沁阳. 西安理工大学, 2021(01)