⑴ 测量机器人位置的两种方法是什么
工业机器人的精确定位大多采用激光跟踪仪进行测量。激光跟踪仪在进行工业机器人重复定位精度测量过程中,必须限制机器人的速度在一定范围内,否则就会出现丢光现象,需重新进行测量,在慢速测量下得到的重复定位精度并不准确,且此装置对操作人员有一定的要求,且操作繁琐、成本极高,如只用在工业机器人定位精度测量上,会形成资源浪费,并且在工业机器人的成品出厂检测过程中,不可能每个工位配一台激光跟踪仪对工业机器人进行检测,所以发明一种成本低、操作方便的工业机器人定位测量装置就非常必要。
针对相关技术中的问题,目前尚未提出有效的解决方案。
技术实现要素:
针对相关技术中的问题,本发明提出一种工业机器人定位测量装置,以克服现有相关技术所存在的上述技术问题。
本发明的技术方案是这样实现的:
一种工业机器人定位测量装置,包括固定板一,所述固定板一的上端一侧设置有固定板二,所述固定板一的上端另一侧设置有固定板三,并且,所述固定板一、所述固定板二与所述固定板三之间相互垂直,所述固定板一靠近所述固定板二的一侧上端设置有固定座一,所述固定座一的上端一侧设置有电机一,所述固定座一的上端另一侧设置有两组限位块一,所述固定板一的上端且位于所述固定座一的一侧设置有固定座二,所述固定座二靠近所述固定座一的一侧设置有两组限位块二,所述固定座二的另一侧设置有连接装置一,所述限位块一与所述限位块二之间穿插设置有两组滑杆一,两组所述滑杆一上设置有滑板一,所述滑板一的下端且位于所述电机一与所述连接装置一之间设置有传送带一,所述滑板一的上端设置有连接块一,所述连接块一的上端设置有连接杆一,所述连接杆一远离所述连接块一的一端与连接杆二的一端活动连接,所述连接杆二远离所述连接杆一的一端与活动板的一侧活动连接,所述固定板二的一侧上端设置有固定座三,所述固定座三上设置有电机二,所述固定座三的一侧下端设置有两组限位块三,所述固定板二的一侧下端设置有固定座四,所述固定座四靠近所述固定座三的一侧设置有两组限位块四,所述固定座四的另一侧设置有连接装置二,所述限位块三与所述限位块四之间穿插设置有两组滑杆二,两组所述滑杆二上设置有滑板二,所述滑板二的下端且位于所述电机二与所述连接装置二之间设置有传送带二,所述滑板二的上端设置有连接块二,所述连接块二的上端设置有连接杆三,所述连接杆三远离所述连接块二的一端与连接杆四的一端活动连接,并且,所述连接杆四远离所述连接杆三的一端与所述活动板的另一侧活动连接,所述固定座三的另一侧设置有两组限位块五,所述限位块五的靠近所述电机二的一侧且位于所述固定座三上设置有连接装置三,所述固定板二的上端且位于所述固定座三的一侧设置有固定座五,所述固定座五的上端一侧设置有电机三,所述固定座五的上端另一侧设置有限位块六,所述限位块五与所述限位块六之间穿插设置有两组滑杆三,两组所述滑杆三上设置有滑板三,所述滑板三的下端且位于所述电机三与所述连接装置三之间设置有传送带三,所述滑板三的上端设置有连接块三,所述连接块三的上端设置有连接杆五,所述连接杆五远离所述连接块三的一端与连接杆六的一端活动连接,所述连接杆六远离所述连接杆五的一端与所述活动板的一端活动连接,所述活动板的下端设置有测量装置。
⑵ 工业机器人要检测哪些项目
工业机器人的测试通常是指性能规范的侧试。按 照国家标准GB/T 12642-2001的规定,工业机器人的性能规范包括位姿特性、距离准确度和重复性、轨迹特性、最小定位时间、静态柔顺性和面向应用的特殊性能规范。
⑶ 管道检测机器人是如何操作的
管道检测通过地面操作台指挥,它能轻松地前进、后退、左转、右转活动身子,带摄像头的“脑袋”可以360度旋转,一对“眼睛”还能够发出灯光,照亮周围。它在管道内爬行时边转动着小脑袋,用这个“眼睛”捕捉到的一切,都清晰地显示在主控制器的屏幕上。系统将会自动记录爬行距离,准确定位管道内缺陷的具体位置,还可根据所设定的条件自动生成指定路段的报表,或者要生成某一个时间段检测的管道的报表,方便快捷。相比以前排查污水管道,必须采取人工挖开一个个窨井盖或是破露一部分管道,分段排查的办法,效率低,效果还不理想。有了“管道检测机器人”检测技术后,最大的好处就是避免了此类现象。对查出的有些微破损的污水管网,下一步也可委托“机器人”进行微创修复。武汉中仪的管道检测机器人应用比较广泛
⑷ 人工智能机器人如何测试,有相关的测试工具吗
人工智能机器人具有稳、准、早三大核心优势,完美解决了人体生物信息认知技术的信息采集问题。一、人工智能健康机器人运行超级稳定因为抗干扰,所以很稳定;因为稳定,所以深入细节,才能准确;人机交互,双重保障,稳定加倍 二、人工智能健康机器人采集信息极其精准比你更懂你的身体,你在机器面前就是透明人;不但要精准检测,更要精准处理;个性化才有用户想要的结果三、人工智能健康机器人可以提前预测比检测更早的是预测;根据现有身体数据进行前瞻性预报;为健康节省成本,为生命争取时间,提前5年发现你体内的癌细胞,早发现就不是晚期
⑸ 怎么对管道机器人进行速度和位置的检测
机器人加速度定位原理
由牛顿的运动学定律可知: 0()()dtvtatt=∫ 0 0 0 ()()d()dt tt Stvttatt= = ∫ ∫∫ 式中,S(t)是运动的位移;v(t)是瞬时运动速度;a(t)是瞬时加速度。 在已知管道结构的情况下,要确定管道内运动物体的位置,只需确定运动物体的起始点和运动距离即可。因此,对于管道检测机器人的定位其实也就是确定管道检测机器人的行进距离。由于我们是通过运动距离来确定机器人的位置的,因此a(t)只考虑机器人的行进方向的分量,也就是沿管线的轴线方向。同理,v(t)也是如此,只需要研究其在a(t)方向的分量就可以了
定位公式推导
由于目前各类加速度计的产品已日趋成熟,使得本方法具有很好的可行性。下面将分别探讨机器人在水平管段、以及将其扩展到整个管段的公式推导。 2.1 水平管段的定位公式 在机器人上固定一个合适的加速度计(安装的位置将在第5节进行探讨),并时刻记录下机器人在前进方向的加速度a(tn)(一般只需要一维的加速度数值即可),结合采样时钟(采样率为f1),在已知机器人初始速度v0(一般可认为v0=0)的前提下,就能确定机器人任意时刻tn在管道内的位置S(tn)
施罗德管道CCTV检测机器人 www.sld-cctv.com
⑹ 机器人抓取时怎么定位的用什么传感器来检测
机器人家上了解到,机器人领域的视觉(Machine Vision)跟计算机领域(Computer Vision)的视觉有一些不同:机器视觉的目的是给机器人提供操作物体的信息。所以,机器视觉的研究大概有这几块:
物体识别(Object Recognition):在图像中检测到物体类型等,这跟 CV 的研究有很大一部分交叉;
位姿估计(Pose Estimation):计算出物体在摄像机坐标系下的位置和姿态,对于机器人而言,需要抓取东西,不仅要知道这是什么,也需要知道它具体在哪里;
相机标定(Camera Calibration):因为上面做的只是计算了物体在相机坐标系下的坐标,我们还需要确定相机跟机器人的相对位置和姿态,这样才可以将物体位姿转换到机器人位姿。
当然,我这里主要是在物体抓取领域的机器视觉;SLAM 等其他领域的就先不讲了。
由于视觉是机器人感知的一块很重要内容,所以研究也非常多了,我就我了解的一些,按照由简入繁的顺序介绍吧:
0. 相机标定
这其实属于比较成熟的领域。由于我们所有物体识别都只是计算物体在相机坐标系下的位姿,但是,机器人操作物体需要知道物体在机器人坐标系下的位姿。所以,我们先需要对相机的位姿进行标定。 内参标定就不说了,参照张正友的论文,或者各种标定工具箱; 外参标定的话,根据相机安装位置,有两种方式:
Eye to Hand:相机与机器人极坐标系固连,不随机械臂运动而运动
Eye in Hand:相机固连在机械臂上,随机械臂运动而运动 两种方式的求解思路都类似,首先是眼在手外(Eye to Hand)
只需在机械臂末端固定一个棋盘格,在相机视野内运动几个姿态。由于相机可以计算出棋盘格相对于相机坐标系的位姿 、机器人运动学正解可以计算出机器人底座到末端抓手之间的位姿变化 、而末端爪手与棋盘格的位姿相对固定不变。 这样,我们就可以得到一个坐标系环
而对于眼在手上(Eye in Hand)的情况,也类似,在地上随便放一个棋盘格(与机器人基座固连),然后让机械臂带着相机走几个位姿,然后也可以形成一个 的坐标环。
1. 平面物体检测
这是目前工业流水线上最常见的场景。目前来看,这一领域对视觉的要求是:快速、精确、稳定。所以,一般是采用最简单的边缘提取+边缘匹配/形状匹配的方法;而且,为了提高稳定性、一般会通过主要打光源、采用反差大的背景等手段,减少系统变量。
目前,很多智能相机(如 cognex)都直接内嵌了这些功能;而且,物体一般都是放置在一个平面上,相机只需计算物体的 三自由度位姿即可。 另外,这种应用场景一般都是用于处理一种特定工件,相当于只有位姿估计,而没有物体识别。 当然,工业上追求稳定性无可厚非,但是随着生产自动化的要求越来越高,以及服务类机器人的兴起。对更复杂物体的完整位姿 估计也就成了机器视觉的研究热点。
2. 有纹理的物体
机器人视觉领域是最早开始研究有纹理的物体的,如饮料瓶、零食盒等表面带有丰富纹理的都属于这一类。 当然,这些物体也还是可以用类似边缘提取+模板匹配的方法。但是,实际机器人操作过程中,环境会更加复杂:光照条件不确定(光照)、物体距离相机距离不确定(尺度)、相机看物体的角度不确定(旋转、仿射)、甚至是被其他物体遮挡(遮挡)。
幸好有一位叫做 Lowe 的大神,提出了一个叫做 SIFT (Scale-invariant feature transform)的超强局部特征点: Lowe, David G. "Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2 (2004): 91-110. 具体原理可以看上面这篇被引用 4万+ 的论文或各种博客,简单地说,这个方法提取的特征点只跟物体表面的某部分纹理有关,与光照变化、尺度变化、仿射变换、整个物体无关。 因此,利用 SIFT 特征点,可以直接在相机图像中寻找到与数据库中相同的特征点,这样,就可以确定相机中的物体是什么东西(物体识别)。
对于不会变形的物体,特征点在物体坐标系下的位置是固定的。所以,我们在获取若干点对之后,就可以直接求解出相机中物体与数据库中物体之间的单应性矩阵。 如果我们用深度相机(如Kinect)或者双目视觉方法,确定出每个特征点的 3D 位置。那么,直接求解这个 PnP 问题,就可以计算出物体在当前相机坐标系下的位姿。
↑ 这里就放一个实验室之前毕业师兄的成果 当然,实际操作过程中还是有很多细节工作才可以让它真正可用的,如:先利用点云分割和欧氏距离去除背景的影响、选用特征比较稳定的物体(有时候 SIFT 也会变化)、利用贝叶斯方法加速匹配等。 而且,除了 SIFT 之外,后来又出了一大堆类似的特征点,如 SURF、ORB 等。
3. 无纹理的物体
好了,有问题的物体容易解决,那么生活中或者工业里还有很多物体是没有纹理的:
我们最容易想到的就是:是否有一种特征点,可以描述物体形状,同时具有跟 SIFT 相似的不变性? 不幸的是,据我了解,目前没有这种特征点。 所以,之前一大类方法还是采用基于模板匹配的办法,但是,对匹配的特征进行了专门选择(不只是边缘等简单特征)。
简单而言,这篇论文同时利用了彩色图像的图像梯度和深度图像的表面法向作为特征,与数据库中的模板进行匹配。 由于数据库中的模板是从一个物体的多个视角拍摄后生成的,所以这样匹配得到的物体位姿只能算是初步估计,并不精确。 但是,只要有了这个初步估计的物体位姿,我们就可以直接采用 ICP 算法(Iterative closest point)匹配物体模型与 3D 点云,从而得到物体在相机坐标系下的精确位姿。
当然,这个算法在具体实施过程中还是有很多细节的:如何建立模板、颜色梯度的表示等。另外,这种方法无法应对物体被遮挡的情况。(当然,通过降低匹配阈值,可以应对部分遮挡,但是会造成误识别)。 针对部分遮挡的情况,我们实验室的张博士去年对 LineMod 进行了改进,但由于论文尚未发表,所以就先不过多涉及了。
4. 深度学习
由于深度学习在计算机视觉领域得到了非常好的效果,我们做机器人的自然也会尝试把 DL 用到机器人的物体识别中。
首先,对于物体识别,这个就可以照搬 DL 的研究成果了,各种 CNN 拿过来用就好了。有没有将深度学习融入机器人领域的尝试?有哪些难点? - 知乎 这个回答中,我提到 2016 年的‘亚马逊抓取大赛’中,很多队伍都采用了 DL 作为物体识别算法。 然而, 在这个比赛中,虽然很多人采用 DL 进行物体识别,但在物体位姿估计方面都还是使用比较简单、或者传统的算法。似乎并未广泛采用 DL。 如 @周博磊 所说,一般是采用 semantic segmentation network 在彩色图像上进行物体分割,之后,将分割出的部分点云与物体 3D 模型进行 ICP 匹配。
当然,直接用神经网络做位姿估计的工作也是有的
它的方法大概是这样:对于一个物体,取很多小块 RGB-D 数据(只关心一个patch,用局部特征可以应对遮挡);每小块有一个坐标(相对于物体坐标系);然后,首先用一个自编码器对数据进行降维;之后,用将降维后的特征用于训练Hough Forest。
5. 与任务/运动规划结合
这部分也是比较有意思的研究内容,由于机器视觉的目的是给机器人操作物体提供信息,所以,并不限于相机中的物体识别与定位,往往需要跟机器人的其他模块相结合。
我们让机器人从冰箱中拿一瓶‘雪碧’,但是这个 ‘雪碧’ 被‘美年达’挡住了。 我们人类的做法是这样的:先把 ‘美年达’ 移开,再去取 ‘雪碧’ 。 所以,对于机器人来说,它需要先通过视觉确定雪碧在‘美年达’后面,同时,还需要确定‘美年达’这个东西是可以移开的,而不是冰箱门之类固定不可拿开的物体。 当然,将视觉跟机器人结合后,会引出其他很多好玩的新东西。由于不是我自己的研究方向,所以也就不再班门弄斧了。
⑺ 工业机器人的自由度该如何检测以及检测标准
自由度为什么要测量呢?一般有几个轴(不是马达)就是有几个自由度。现在工业上最多的就是4,、6轴机器人,刚好有4个、6个自由度,这个自由度可以按轴来分,也可以按笛卡尔坐标系来分,都行。7轴机器人有7个自由度,但第7自由度是姿态上的变化。而6轴机器人加外部轴不增加自由度。
⑻ 现在一般是用什么方法和设备来检测工业机器人的定位精度、重复定位精度、轨迹精度等性能参数
一般采用CCD和图像处理技术来精确测量;当然有条件的话,用激光测距仪更方便,太设备太贵。