论文部分内容阅读
同工业机器人或者其他领域机器人相比,农业机器人工作环境多变,以非结构环境为主,对智能化程度的要求要远高于其他领域机器人,因此,现阶段的研究重心应转向机器视觉和人工智能,下面设计了一套双目视觉测距装置,以定位田间棉花的三维坐标,为棉花采摘机器人机械臂的运动轨迹提供参数,力图解决农业机器人的智能问题。在投影仪打光和不打光的情况下,拍摄了 3棵棉株的图像,获取了边界清晰、纹理丰富的棉花图像样本,下面以第1幅图像样本为例阐述实验过程。对棉花图像进行二值化处理去除背景,进一步进行灰度平衡和锐化来增强棉花表面的纹理;对图像进行4次降采样处理生成5组图像,分别在6个高斯核函数尺度下对每一组图像进行高斯模糊滤波处理,生成一个高斯金字塔尺度空间;基于相邻尺度的高斯图像获取高斯差分图像的层叠,在像素的3×3×3立体邻域内判断出极值点,左右图像分别获取了1634和1581个极值点,进一步采用子像素插值法精确定位关键点,并用曲率阈值去除边缘点,左右图像分别获取了 1529和1493个关键点;基于关键点邻域内像素的梯度直方图的最大幅值确定关键点的主方向,沿着主方向获取关键点4×4邻域内的16个种子点在8个梯度方向上的模值,由此获取关键点的128维SIFT特征值,它们具有旋转、平移、缩放和仿射不变性。左右图像粗匹配时,针对右图像的所有关键点,计算每一维SIFT特征值的方差,基于最大方差所在维对关键点进行排序并折半划分关键点,重复此过程建立一棵KD二叉树;左图像的某一个关键点从二叉树根开始搜寻匹配点时,获取了一条通往叶子的搜索路径,沿途记录其兄弟节点,并依据一定准则排序成一个BBF(BestBinFirst)优先级序列作为回溯搜索路径,由此获取最近邻和次近邻点,若最近邻点到左图像关键点的欧氏距离小于次近邻点的0.49倍,即为匹配点,依此类推,左右图像获取了172对匹配点。进一步基于8点法精匹配的方法是,从粗匹配点对中任意选取8个匹配点对构建极线方程,基于归一化和奇异分解获得的方程解为基本矩阵F,它表征的是相机成像平面之间的极线约束关系,计算粗匹配点对到极线的距离,以1.5为阈值判断内点对,获取内点对数及其到极线的误差;基于随机采样一致性方法RANSAC(Random Sample Consensus)重复这一过程并快速收敛,内点对数最多或者误差较小的基本矩阵F最优,相应的内点对即为精匹配点对,左右图像获得了 155对精匹配点对,误差为0.8018。以左相机光心为世界坐标系的原点,采用张正友二步标定法获取相机的内部参数,结合基本矩阵F构建极线约束方程得到本质矩阵E,并对其奇异分解得到外部参数,基于运动恢复模型SFM(Structure From Motion)实现精匹配点对的图像坐标到世界坐标的转换,由此计算出棉花表面点云的三维世界坐标。试验结果表明,与Z轴方向上人工测量的结果比较,3棵棉株的平均机器视觉测距误差分别为0.0393m、0.0378m 和 0.0382m。