1.打印标定纸,随机九个点
2.让UR机器人末端分别走到P1-P9九个点
在图示位置读取九个点的X,Y坐标
3.手机拍照(固定点)
测试可以随机拍一张,实用的话需要固定手机的拍照位置,得到的图片如下:
4.OpenCV取值这九个点的像素坐标
实用如下代码显示这个图片,用鼠标悬停取抄写坐标
import cv2
import numpy as np
input_img='/home/cheni/Downloads/xyz.jpeg'
image = cv2.imread(input_img)
#让图片可以缩写拉伸
cv2.namedWindow('Harris', cv2.WINDOW_NORMAL | cv2.WINDOW_KEEPRATIO)
cv2.imshow('Harris',image)
if cv2.waitKey(0) & 0xff == 27:
cv2.destroyAllWindows()
效果如下:
鼠标悬停在P1上,在左下角就可以读取这个像素坐标值了。
5.标定矩阵计算加验证
验证算法如下:
import numpy as np
import cv2
robot_end_xy=np.array([
[-316,-611.4],
[-359.7,-589.3],
[-296.4,-573.2],
[-372.3,-558.7],
[-293.8,-530],
[-343.4,-522.7],
[-222.8,-510],
[-329.6,-486.6],
[-288.1,-472.4],
])
phone_image_xy=np.array([
[1371,923],
[1912,965],
[1367,1479],
[1764,1423],
[1555,1890],
[2115,1702],
[930,2490],
[2150,2175],
[1799,2520],
])
#计算两组坐标之间的仿射矩阵
m, _ = cv2.estimateAffine2D(phone_image_xy, robot_end_xy)
print (m)
def get_points_robot(x_camera, y_camera):
robot_x = (m[0][0] * x_camera) + (m[0][1] * y_camera) + m[0][2]
robot_y = (m[1][0] * x_camera) + (m[1][1] * y_camera) + m[1][2]
return robot_x, robot_y
#验证其中一个点,倒数第三个(930,2490)像素坐标转换机器人坐标
x,y= get_points_robot(930,2490)
print(x,y)
运行后结果分析:
cheni@yuchen:~$ /bin/python3 /home/cheni/Desktop/suanfa.py
[[-7.71668805e-02 3.77840943e-02 -2.45046408e+02]
[ 3.92542458e-02 7.59681698e-02 -7.35221624e+02]]
-222.7292116274272 -509.55443216333356
cheni@yuchen:~$ ^C
1是计算的仿射矩阵,2是验证倒数第三个点,可以看到误差不是太大。
6.参考文章
Python-opencv 手眼标定(九点定位)_opencv设置视觉抓取点怎么确定-CSDN博客文章来源:https://www.toymoban.com/news/detail-740521.html
基于OpenCv的机器人手眼标定(九点标定法)《转载》_qt opencv 九点标定_hehedadaq的博客-CSDN博客文章来源地址https://www.toymoban.com/news/detail-740521.html
到了这里,关于手机拍照转机器人末端坐标(九点标定法)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!