⑴ 測量機器人位置的兩種方法是什麼
工業機器人的精確定位大多採用激光跟蹤儀進行測量。激光跟蹤儀在進行工業機器人重復定位精度測量過程中,必須限制機器人的速度在一定范圍內,否則就會出現丟光現象,需重新進行測量,在慢速測量下得到的重復定位精度並不準確,且此裝置對操作人員有一定的要求,且操作繁瑣、成本極高,如只用在工業機器人定位精度測量上,會形成資源浪費,並且在工業機器人的成品出廠檢測過程中,不可能每個工位配一台激光跟蹤儀對工業機器人進行檢測,所以發明一種成本低、操作方便的工業機器人定位測量裝置就非常必要。
針對相關技術中的問題,目前尚未提出有效的解決方案。
技術實現要素:
針對相關技術中的問題,本發明提出一種工業機器人定位測量裝置,以克服現有相關技術所存在的上述技術問題。
本發明的技術方案是這樣實現的:
一種工業機器人定位測量裝置,包括固定板一,所述固定板一的上端一側設置有固定板二,所述固定板一的上端另一側設置有固定板三,並且,所述固定板一、所述固定板二與所述固定板三之間相互垂直,所述固定板一靠近所述固定板二的一側上端設置有固定座一,所述固定座一的上端一側設置有電機一,所述固定座一的上端另一側設置有兩組限位塊一,所述固定板一的上端且位於所述固定座一的一側設置有固定座二,所述固定座二靠近所述固定座一的一側設置有兩組限位塊二,所述固定座二的另一側設置有連接裝置一,所述限位塊一與所述限位塊二之間穿插設置有兩組滑桿一,兩組所述滑桿一上設置有滑板一,所述滑板一的下端且位於所述電機一與所述連接裝置一之間設置有傳送帶一,所述滑板一的上端設置有連接塊一,所述連接塊一的上端設置有連接桿一,所述連接桿一遠離所述連接塊一的一端與連接桿二的一端活動連接,所述連接桿二遠離所述連接桿一的一端與活動板的一側活動連接,所述固定板二的一側上端設置有固定座三,所述固定座三上設置有電機二,所述固定座三的一側下端設置有兩組限位塊三,所述固定板二的一側下端設置有固定座四,所述固定座四靠近所述固定座三的一側設置有兩組限位塊四,所述固定座四的另一側設置有連接裝置二,所述限位塊三與所述限位塊四之間穿插設置有兩組滑桿二,兩組所述滑桿二上設置有滑板二,所述滑板二的下端且位於所述電機二與所述連接裝置二之間設置有傳送帶二,所述滑板二的上端設置有連接塊二,所述連接塊二的上端設置有連接桿三,所述連接桿三遠離所述連接塊二的一端與連接桿四的一端活動連接,並且,所述連接桿四遠離所述連接桿三的一端與所述活動板的另一側活動連接,所述固定座三的另一側設置有兩組限位塊五,所述限位塊五的靠近所述電機二的一側且位於所述固定座三上設置有連接裝置三,所述固定板二的上端且位於所述固定座三的一側設置有固定座五,所述固定座五的上端一側設置有電機三,所述固定座五的上端另一側設置有限位塊六,所述限位塊五與所述限位塊六之間穿插設置有兩組滑桿三,兩組所述滑桿三上設置有滑板三,所述滑板三的下端且位於所述電機三與所述連接裝置三之間設置有傳送帶三,所述滑板三的上端設置有連接塊三,所述連接塊三的上端設置有連接桿五,所述連接桿五遠離所述連接塊三的一端與連接桿六的一端活動連接,所述連接桿六遠離所述連接桿五的一端與所述活動板的一端活動連接,所述活動板的下端設置有測量裝置。
⑵ 工業機器人要檢測哪些項目
工業機器人的測試通常是指性能規范的側試。按 照國家標准GB/T 12642-2001的規定,工業機器人的性能規范包括位姿特性、距離准確度和重復性、軌跡特性、最小定位時間、靜態柔順性和面向應用的特殊性能規范。
⑶ 管道檢測機器人是如何操作的
管道檢測通過地面操作台指揮,它能輕松地前進、後退、左轉、右轉活動身子,帶攝像頭的「腦袋」可以360度旋轉,一對「眼睛」還能夠發出燈光,照亮周圍。它在管道內爬行時邊轉動著小腦袋,用這個「眼睛」捕捉到的一切,都清晰地顯示在主控制器的屏幕上。系統將會自動記錄爬行距離,准確定位管道內缺陷的具體位置,還可根據所設定的條件自動生成指定路段的報表,或者要生成某一個時間段檢測的管道的報表,方便快捷。相比以前排查污水管道,必須採取人工挖開一個個窨井蓋或是破露一部分管道,分段排查的辦法,效率低,效果還不理想。有了「管道檢測機器人」檢測技術後,最大的好處就是避免了此類現象。對查出的有些微破損的污水管網,下一步也可委託「機器人」進行微創修復。武漢中儀的管道檢測機器人應用比較廣泛
⑷ 人工智慧機器人如何測試,有相關的測試工具嗎
人工智慧機器人具有穩、准、早三大核心優勢,完美解決了人體生物信息認知技術的信息採集問題。一、人工智慧健康機器人運行超級穩定因為抗干擾,所以很穩定;因為穩定,所以深入細節,才能准確;人機交互,雙重保障,穩定加倍 二、人工智慧健康機器人採集信息極其精準比你更懂你的身體,你在機器面前就是透明人;不但要精準檢測,更要精準處理;個性化才有用戶想要的結果三、人工智慧健康機器人可以提前預測比檢測更早的是預測;根據現有身體數據進行前瞻性預報;為健康節省成本,為生命爭取時間,提前5年發現你體內的癌細胞,早發現就不是晚期
⑸ 怎麼對管道機器人進行速度和位置的檢測
機器人加速度定位原理
由牛頓的運動學定律可知: 0()()dtvtatt=∫ 0 0 0 ()()d()dt tt Stvttatt= = ∫ ∫∫ 式中,S(t)是運動的位移;v(t)是瞬時運動速度;a(t)是瞬時加速度。 在已知管道結構的情況下,要確定管道內運動物體的位置,只需確定運動物體的起始點和運動距離即可。因此,對於管道檢測機器人的定位其實也就是確定管道檢測機器人的行進距離。由於我們是通過運動距離來確定機器人的位置的,因此a(t)只考慮機器人的行進方向的分量,也就是沿管線的軸線方向。同理,v(t)也是如此,只需要研究其在a(t)方向的分量就可以了
定位公式推導
由於目前各類加速度計的產品已日趨成熟,使得本方法具有很好的可行性。下面將分別探討機器人在水平管段、以及將其擴展到整個管段的公式推導。 2.1 水平管段的定位公式 在機器人上固定一個合適的加速度計(安裝的位置將在第5節進行探討),並時刻記錄下機器人在前進方向的加速度a(tn)(一般只需要一維的加速度數值即可),結合採樣時鍾(采樣率為f1),在已知機器人初始速度v0(一般可認為v0=0)的前提下,就能確定機器人任意時刻tn在管道內的位置S(tn)
施羅德管道CCTV檢測機器人 www.sld-cctv.com
⑹ 機器人抓取時怎麼定位的用什麼感測器來檢測
機器人家上了解到,機器人領域的視覺(Machine Vision)跟計算機領域(Computer Vision)的視覺有一些不同:機器視覺的目的是給機器人提供操作物體的信息。所以,機器視覺的研究大概有這幾塊:
物體識別(Object Recognition):在圖像中檢測到物體類型等,這跟 CV 的研究有很大一部分交叉;
位姿估計(Pose Estimation):計算出物體在攝像機坐標系下的位置和姿態,對於機器人而言,需要抓取東西,不僅要知道這是什麼,也需要知道它具體在哪裡;
相機標定(Camera Calibration):因為上面做的只是計算了物體在相機坐標系下的坐標,我們還需要確定相機跟機器人的相對位置和姿態,這樣才可以將物體位姿轉換到機器人位姿。
當然,我這里主要是在物體抓取領域的機器視覺;SLAM 等其他領域的就先不講了。
由於視覺是機器人感知的一塊很重要內容,所以研究也非常多了,我就我了解的一些,按照由簡入繁的順序介紹吧:
0. 相機標定
這其實屬於比較成熟的領域。由於我們所有物體識別都只是計算物體在相機坐標系下的位姿,但是,機器人操作物體需要知道物體在機器人坐標系下的位姿。所以,我們先需要對相機的位姿進行標定。 內參標定就不說了,參照張正友的論文,或者各種標定工具箱; 外參標定的話,根據相機安裝位置,有兩種方式:
Eye to Hand:相機與機器人極坐標系固連,不隨機械臂運動而運動
Eye in Hand:相機固連在機械臂上,隨機械臂運動而運動 兩種方式的求解思路都類似,首先是眼在手外(Eye to Hand)
只需在機械臂末端固定一個棋盤格,在相機視野內運動幾個姿態。由於相機可以計算出棋盤格相對於相機坐標系的位姿 、機器人運動學正解可以計算出機器人底座到末端抓手之間的位姿變化 、而末端爪手與棋盤格的位姿相對固定不變。 這樣,我們就可以得到一個坐標系環
而對於眼在手上(Eye in Hand)的情況,也類似,在地上隨便放一個棋盤格(與機器人基座固連),然後讓機械臂帶著相機走幾個位姿,然後也可以形成一個 的坐標環。
1. 平面物體檢測
這是目前工業流水線上最常見的場景。目前來看,這一領域對視覺的要求是:快速、精確、穩定。所以,一般是採用最簡單的邊緣提取+邊緣匹配/形狀匹配的方法;而且,為了提高穩定性、一般會通過主要打光源、採用反差大的背景等手段,減少系統變數。
目前,很多智能相機(如 cognex)都直接內嵌了這些功能;而且,物體一般都是放置在一個平面上,相機只需計算物體的 三自由度位姿即可。 另外,這種應用場景一般都是用於處理一種特定工件,相當於只有位姿估計,而沒有物體識別。 當然,工業上追求穩定性無可厚非,但是隨著生產自動化的要求越來越高,以及服務類機器人的興起。對更復雜物體的完整位姿 估計也就成了機器視覺的研究熱點。
2. 有紋理的物體
機器人視覺領域是最早開始研究有紋理的物體的,如飲料瓶、零食盒等表面帶有豐富紋理的都屬於這一類。 當然,這些物體也還是可以用類似邊緣提取+模板匹配的方法。但是,實際機器人操作過程中,環境會更加復雜:光照條件不確定(光照)、物體距離相機距離不確定(尺度)、相機看物體的角度不確定(旋轉、仿射)、甚至是被其他物體遮擋(遮擋)。
幸好有一位叫做 Lowe 的大神,提出了一個叫做 SIFT (Scale-invariant feature transform)的超強局部特徵點: Lowe, David G. "Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2 (2004): 91-110. 具體原理可以看上面這篇被引用 4萬+ 的論文或各種博客,簡單地說,這個方法提取的特徵點只跟物體表面的某部分紋理有關,與光照變化、尺度變化、仿射變換、整個物體無關。 因此,利用 SIFT 特徵點,可以直接在相機圖像中尋找到與資料庫中相同的特徵點,這樣,就可以確定相機中的物體是什麼東西(物體識別)。
對於不會變形的物體,特徵點在物體坐標系下的位置是固定的。所以,我們在獲取若干點對之後,就可以直接求解出相機中物體與資料庫中物體之間的單應性矩陣。 如果我們用深度相機(如Kinect)或者雙目視覺方法,確定出每個特徵點的 3D 位置。那麼,直接求解這個 PnP 問題,就可以計算出物體在當前相機坐標系下的位姿。
↑ 這里就放一個實驗室之前畢業師兄的成果 當然,實際操作過程中還是有很多細節工作才可以讓它真正可用的,如:先利用點雲分割和歐氏距離去除背景的影響、選用特徵比較穩定的物體(有時候 SIFT 也會變化)、利用貝葉斯方法加速匹配等。 而且,除了 SIFT 之外,後來又出了一大堆類似的特徵點,如 SURF、ORB 等。
3. 無紋理的物體
好了,有問題的物體容易解決,那麼生活中或者工業里還有很多物體是沒有紋理的:
我們最容易想到的就是:是否有一種特徵點,可以描述物體形狀,同時具有跟 SIFT 相似的不變性? 不幸的是,據我了解,目前沒有這種特徵點。 所以,之前一大類方法還是採用基於模板匹配的辦法,但是,對匹配的特徵進行了專門選擇(不只是邊緣等簡單特徵)。
簡單而言,這篇論文同時利用了彩色圖像的圖像梯度和深度圖像的表面法向作為特徵,與資料庫中的模板進行匹配。 由於資料庫中的模板是從一個物體的多個視角拍攝後生成的,所以這樣匹配得到的物體位姿只能算是初步估計,並不精確。 但是,只要有了這個初步估計的物體位姿,我們就可以直接採用 ICP 演算法(Iterative closest point)匹配物體模型與 3D 點雲,從而得到物體在相機坐標系下的精確位姿。
當然,這個演算法在具體實施過程中還是有很多細節的:如何建立模板、顏色梯度的表示等。另外,這種方法無法應對物體被遮擋的情況。(當然,通過降低匹配閾值,可以應對部分遮擋,但是會造成誤識別)。 針對部分遮擋的情況,我們實驗室的張博士去年對 LineMod 進行了改進,但由於論文尚未發表,所以就先不過多涉及了。
4. 深度學習
由於深度學習在計算機視覺領域得到了非常好的效果,我們做機器人的自然也會嘗試把 DL 用到機器人的物體識別中。
首先,對於物體識別,這個就可以照搬 DL 的研究成果了,各種 CNN 拿過來用就好了。有沒有將深度學習融入機器人領域的嘗試?有哪些難點? - 知乎 這個回答中,我提到 2016 年的『亞馬遜抓取大賽』中,很多隊伍都採用了 DL 作為物體識別演算法。 然而, 在這個比賽中,雖然很多人採用 DL 進行物體識別,但在物體位姿估計方面都還是使用比較簡單、或者傳統的演算法。似乎並未廣泛採用 DL。 如 @周博磊 所說,一般是採用 semantic segmentation network 在彩色圖像上進行物體分割,之後,將分割出的部分點雲與物體 3D 模型進行 ICP 匹配。
當然,直接用神經網路做位姿估計的工作也是有的
它的方法大概是這樣:對於一個物體,取很多小塊 RGB-D 數據(只關心一個patch,用局部特徵可以應對遮擋);每小塊有一個坐標(相對於物體坐標系);然後,首先用一個自編碼器對數據進行降維;之後,用將降維後的特徵用於訓練Hough Forest。
5. 與任務/運動規劃結合
這部分也是比較有意思的研究內容,由於機器視覺的目的是給機器人操作物體提供信息,所以,並不限於相機中的物體識別與定位,往往需要跟機器人的其他模塊相結合。
我們讓機器人從冰箱中拿一瓶『雪碧』,但是這個 『雪碧』 被『美年達』擋住了。 我們人類的做法是這樣的:先把 『美年達』 移開,再去取 『雪碧』 。 所以,對於機器人來說,它需要先通過視覺確定雪碧在『美年達』後面,同時,還需要確定『美年達』這個東西是可以移開的,而不是冰箱門之類固定不可拿開的物體。 當然,將視覺跟機器人結合後,會引出其他很多好玩的新東西。由於不是我自己的研究方向,所以也就不再班門弄斧了。
⑺ 工業機器人的自由度該如何檢測以及檢測標准
自由度為什麼要測量呢?一般有幾個軸(不是馬達)就是有幾個自由度。現在工業上最多的就是4,、6軸機器人,剛好有4個、6個自由度,這個自由度可以按軸來分,也可以按笛卡爾坐標系來分,都行。7軸機器人有7個自由度,但第7自由度是姿態上的變化。而6軸機器人加外部軸不增加自由度。
⑻ 現在一般是用什麼方法和設備來檢測工業機器人的定位精度、重復定位精度、軌跡精度等性能參數
一般採用CCD和圖像處理技術來精確測量;當然有條件的話,用激光測距儀更方便,太設備太貴。