3D LiDAR sensing method and experiment of plant row information extraction
-
摘要:目的
针对林间或冠层下等卫星信号严重遮挡的区域,提出一种面向农业机器人导航环境感知的低成本3D激光雷达(LiDAR)点云信息处理与植物行估计方法。
方法利用直通滤波器滤除感兴趣区域外的目标无关点;提出均值漂移聚类、扫描区域自适应的方法分割每棵植物主干,垂直投影主干点云估算中心点;利用最小二乘法拟合主干中心,估计植物行。分别在开阔地的仿真果园与水杉树林进行模拟试验与田间试验,以植物行向量与正东方夹角为指标,计算本研究提出的方法识别的植物行信息与GNSS卫星天线定位测得的植物行真值间的角度误差。
结果采用提出的3D LiDAR点云信息处理与植物行估计方法,模拟试验和田间试验对植物行识别误差平均值分别为0.79°和1.48°,最小值分别为0.12°和0.88°,最大值分别为1.49°和2.33°。
结论车载3D LiDAR能够有效估计水杉树植物行。该研究丰富了作物识别思路与方法,为无卫星信号覆盖区域的农业机器人无图导航提供了理论依据。
Abstract:ObjectiveA low-cost 3D light detecting and ranging (LiDAR) point cloud information processing and plant row estimation method for environment perception in agricultural robot navigation is proposed for the areas where the satellite signal is seriously occluded in the forest or under the canopy.
MethodFirst, the pass through filter was used to filter out the target irrelevant points outside the area of interest. Secondly, the methods of mean shift clustering and scanning area adaptation were proposed to segment the trunk of each plant, and the vertical projection of the trunk point cloud was used to estimate the center point. Finally, the plant rows were estimated by determing the trunk centers with the least square fitting method. The simulation experiment and field experiment were carried out in the simulated orchard and metasequoia forest in the open field. The angle between the plant row vector and the due east was used as the index. The angle error between the plant row information identified by the proposed method and the true value of the plant row measured by GNSS satellite antenna positioning was calculated.
ResultUsing the proposed method of 3D LiDAR point cloud information processing and plant row estimation, the average errors of plant row identification in simulation experiment and field experiment were 0.79° and 1.48°, the minimum errors were 0.12° and 0.88°, and the maximum errors were 1.49° and 2.33°, respectively.
ConclusionThe vehicle-mounted 3D LiDAR can effectively estimate the plant rows of metasequoia. This research enriches the ideas and methods of crop identification, and provides a theoretical basis for the map-free navigation of agricultural robots in areas without satellite signal coverage.
-
无人农场是智慧农业的一种生产方式,也是实现智慧农业的重要途径。农业机械自动导航作业是无人农场的关键技术[1],而车体航向和位置的精准获取则是农机自动导航的前提[2],目前,主要有全球导航卫星系统[3-4](Global navigation satellite system,GNSS)、立体相机[5-6]和激光雷达(Light detecting and ranging,LiDAR) 3种感知系统。其中,采用载波相位差分(Real-time kinematic,RTK)技术进行定位解算的GNSS导航应用最为成熟并已在国际市场商业化,然而卫星通信因易受遮挡影响出现差分失锁或多路径效应,通常用于开阔地作业场景,不适于如林间或冠层下卫星信号盲区的特殊作业环境[7-8]。立体视觉通过彩色相机对环境成像,采用数字图像处理算法或神经网络深度学习模型分析提取图像中的有用信息,为机器人路径规划提供参考[9-10],但视觉成像质量极易受光照影响,定位精度表现不稳定[11]。利用飞行时间(Time of flight,ToF)原理,2D LiDAR可全天候获得传感器极坐标系中载体周围环境的二维坐标,但由于点云数据稀疏,小尺寸目标特征信息易缺失,因此更多用于植保[12]、收获[13]或变量作业[14]时大表面积冠层检测[15],如蔡吉晨[16]依据果树冠层网格化体积模型设计了变量喷药策略,试制了基于2D LiDAR的果园变量喷药机样机;薛秀云等[17]通过 LiDAR检测技术提出表征树冠特征参数的叶墙面积及其关联变量喷雾模型,比采用纯对靶定量喷雾省药32.77%;侯加林等[18]采用基于机器人操作系统(Robot operating system,ROS)框架工作的开源cartographer算法,研制了双激光雷达温室运输机器人导航系统,但导航路径规划必须在地图信息已知的前提下进行。
3D LiDAR具有更大视场,能提供更丰富的环境感知信息,可精准地表达三维模型表面特性和几何形状[19],广泛用于轿车自动驾驶系统的局部路径规划[20-22];因为硬件成本和数据计算负担限制,在农业工程领域,3D LiDAR主要用于基础科学研究,如农植物几何参数获取[23-24]、表型[25]和逆向重构[26]等,苏伟等[27]提出一种基于地面激光扫描技术的大田玉米个体表型信息提取方法,陈日强等[28]利用无人机搭载3D LiDAR测量每棵果树的树冠面积和直径,并分析了空间分辨率对单木树冠检测与提取结果的影响;刘路等[29]采用了 Velodyne 16线激光雷达(VLP-16)解析高遮挡环境下玉米植物行中心导航线,但传感器成本较高且未考虑载体姿态变化对植株定位的影响;为实现低成本3D感知,刘宽[30]、Gasparino等[31]采用舵机驱动2D LiDAR定轴摆动,研制了摆头式3D LiDAR探测系统,由于需要实时测量LiDAR姿态,并涉及多坐标系统配准,工程化实施难度大。
本文针对林间或冠层下GNSS信号遮挡严重区域的农业机器人导航需求,提出一种低成本3D LiDAR感知的点云数据处理与植物行信息提取方法。该方法不仅能够补偿载体姿态变化对点云空间坐标的影响,还可实现不同直径的植株主干自适应分割,避免重叠交错枝叶影响植株中心求取;最后,开展模拟试验和实地试验对算法精度的有效性进行验证。
1. 系统组成与坐标标定
1.1 试验材料
1.1.1 3D LiDAR
采用Livox Horizon 3D LiDAR作为农业机器人导航的感知传感器,3D LiDAR的扫描量程为0.5 ~ 260.0 m,水平视场为81.7°,垂直视场为25.1°,每秒可输出点云240000个。当LiDAR激光束遇到障碍物时发生反射,测量反射时间来确定距离[32]。内置惯性测量单元(Inertial measurement unit,IMU),通过测量农业机器人行驶过程中的横滚角
${\theta _{\text{r}}}$ ,俯仰角${\theta _{\text{p}}}$ ,航向角$ \psi $ ,对LiDAR输出的点云坐标xlidar、ylidar、zlidar进行实时姿态校正,使测量结果不受载体运动姿态影响,在出厂前已完成LiDAR与IMU的外参标定和同步。校正公式如下:$$ \begin{split} {{\boldsymbol{R}}_{{\bf{IMU}}}} =& R_\psi ^{Z}R_{{\theta _{\text{p}}}}^{Y}R_{{\theta _{\text{r}}}}^{X} = \left[ {\begin{array}{*{20}{c}} {\cos \psi }&{ - \sin \psi }&0 \\ {\sin \psi }&{\cos \psi }&0 \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {\cos {\theta _{\text{p}}}}&0&{\sin {\theta _{\text{p}}}} \\ 0&1&0 \\ { - \sin {\theta _{\text{p}}}}&0&{\cos {\theta _{\text{p}}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} 1&0&0 \\ 0&{\cos {\theta _{\text{r}}}}&{ - \sin {\theta _{\text{r}}}} \\ 0&{\sin {\theta _{\text{r}}}}&{\cos {\theta _{\text{r}}}} \end{array}} \right] \\ =& \left[ {\begin{array}{*{20}{c}} {\cos \psi \cos {\theta _{\text{p}}}}&{ - \sin \psi \cos {\theta _{\text{r}}} + \cos \psi \sin {\theta _{\text{p}}}\sin {\theta _{\text{r}}}}&{\sin \psi \sin {\theta _{\text{r}}} + \cos \psi \sin {\theta _{\text{p}}}\cos {\theta _{\text{r}}}} \\ {\sin \psi \cos {\theta _{\text{p}}}}&{\cos \psi \cos {\theta _{\text{r}}} + \sin \psi \sin {\theta _{\text{p}}}\sin {\theta _{\text{r}}}}&{ - \cos \psi \sin {\theta _{\text{r}}} + \sin \psi \sin {\theta _{\text{p}}}\cos {\theta _{\text{r}}}} \\ { - \sin {\theta _{\text{p}}}}&{\cos {\theta _{\text{p}}}\sin {\theta _{\text{r}}}}&{\cos {\theta _{\text{p}}}\cos {\theta _{\text{r}}}} \end{array}} \right] , \end{split}$$ (1) $$ \begin{split}&\;\\[-6pt] & \left[ {\begin{array}{*{20}{c}} {{x_{{\text{mix}}}}} \\ {{y_{{\text{mix}}}}} \\ {{z_{{\text{mix}}}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{x_{{\text{lidar}}}}} \\ {{y_{{\text{lidar}}}}} \\ {{z_{{\text{lidar}}}}} \end{array}} \right]{{\boldsymbol{R}}_{{\bf{IMU}}}}\end{split}, $$ (2) 式中:RIMU为IMU的旋转矩阵,xlidar、ylidar、zlidar为LiDAR的点云坐标,xmix、ymix、zmix为校正后的LiDAR点云坐标。
相比于常规多线机械旋转式3D LiDAR,Livox Horizon采用非重复扫描方式获取传感器与环境的距离,扫描时间超过0.1 s的时候,可以达到常见64线机械旋转式激光雷达扫描覆盖率;达到0.5 s左右时,视场覆盖率将接近100%,价格仅有国外同类64线产品的1/50 ~ 1/100;因此,研究选用Livox Horizon作为植物行感知传感器,且其小视场、非重复式扫描的特点非常适于封闭、低速的农业机器人导航环境。
1.1.2 GNSS定位系统
为评价本文提出的作物行提取精度,以GNSS天线定位数据作为环境信息位置真值。GNSS采用天宝定位板卡BD 970接收解析卫星信号,千寻连续运行参考站(Continuously operating reference stations,CORS)提供基于RTK的定位信息,能实现1~2 cm的定位精度。通过将位置已知基准站测量的伪距修正值或相位信息发送到移动站来提高精度,并将定位数据通过串口以GNGGA 、GNVTG的形式输送至上位机。
1.1.3 机器人底盘
采用的四轮差速转向机器人如图1所示,结构尺寸(长×宽×高)为830 mm×650 mm×370 mm,底盘高度为120 mm,轮胎为直径300 mm的真空胎,最高时速为8 km/h,轮胎减震且具有自适应悬挂,提高了在越野路面的行驶通过性,适用于农业环境下工作。
1.2 采用的坐标系统
1.2.1 坐标系统定义
WGS-84大地坐标系:该坐标反映了地球表面各点的空间分布,是为全球定位系统(Global positioning system,GPS)的使用而建立的一种通用地心坐标系;研究使用的GNSS接收机输出的经纬度坐标即是 WGS-84坐标下天线的定位。
传感器坐标系:即LiDAR坐标系,如图1所示,原点在高于LiDAR底部50.1 mm的透镜中心,在笛卡尔右手坐标系下定义Y轴正方向指向传感器正前方,Z轴过传感器形心垂直于水平面。 LiDAR内置的IMU坐标原点OI在LiDAR坐标系上的坐标为(−55.12,−22.26,29.70)(单位:mm)。
导航坐标系:通过高斯吕格投影先将WGS-84大地坐标系的经纬度信息转化到局部切平面坐标系,X轴指向地理北方,Y轴指向东方,再经坐标平移至导航坐标系,本研究拟进行的数据处理及分析均在导航坐标系下进行。
1.2.2 坐标系统转换
IMU校正后的LiDAR输出数据是IMU系下的环境信息坐标,已与导航系东北平面平行,还需进行航向标定。如图2所示,E、F、G是GNSS天线在导航坐标系下的位置,分别记为(xi,yi,zi)(i=1, 2, 3),采用隐式(3)计算LiDAR坐标系原点在导航系下的位置,记为(x,y,z)。LiDAR坐标系与导航坐标系的航向偏差yaw为
$ \stackrel{\rightharpoonup }{FE} $ 的航向角与$ \stackrel{\rightharpoonup }{F'E'} $ 航向角的差值,代入式(4)求解导航坐标系下LiDAR原点坐标(xN,yN,zN)。图 2 导航坐标系与 IMU 坐标系相对位置Li为LiDAR测得天线中心点的极径;E、F、G为导航坐标系下GNSS天线位置;E'、F'、G'为IMU坐标系下GNSS天线位置;ONXNYNZN为导航坐标系;OIXIYIZI为IMU坐标系Figure 2. Relative position of navigation coordinate system and IMU coordinate systemLi is the polar diameter of the center point of the antenna measured by LiDAR; E,F and G are GNSS antenna positions in the navigation coordinate system; E',F' and G' are GNSS antenna positions in the IMU coordinate system; ONXNYNZN is the navigation coordinate system; OIXIYIZI is the IMU coordinate system$$ {L}_{i}=\sqrt{\left(x-{x}_{i}\right)+\left(y-{y}_{i}\right)+\left(z-{z}_{i}\right)}, \quad i=1,2,3 ,$$ (3) $$\left( \begin{array}{l} x_{\rm{N}}\\ y_{\rm{N}}\\ z_{\rm{N}}\\ 1 \end{array} \right) = \left[ \begin{array}{*{20}{c}} {\cos ({\rm{yaw}})}&{ - \sin ({\rm{yaw}})}&0 &0 \\ {\sin ({\rm{yaw}})}&{\cos ({\rm{yaw}})}&0&0 \\ 0&0&1&0 \\ 0&0&0&1 \end{array} \right]\left( \begin{array}{l} x \\ y \\ z \\ 1 \\ \end{array} \right) 。$$ (4) 1.3 研究方法
1.3.1 点云信息预处理
LiDAR视场为圆锥面,每秒最多获得240000个点,最大探测距离可达260 m,在数据采集的过程中会引入大量的目标无关点,比如杂草、地面、周围的建筑物,保留其原始探测范围会在探测到更多目标信息的同时增加处理工作量,延长数据处理时间[33];另外,距离传感器越远,LiDAR测得的点云变得稀疏,所能提供可利用的有效信息变少,因此,需要在不改变点云特征的前提下实时对数据进行预处理,具体步骤如下。
1) 感兴趣区域和降采样
以LiDAR的安装位置为原点,移动机器人的航向为 Y 轴,建立直角坐标系。根据葡萄田环境,通过直通滤波分别在X轴、Y轴和Z轴设置6、12和2 m的感兴趣区域(Region of interest, ROI)。直通滤波处理点云的具体计算式如式(5)所示。并采用体素滤波对ROI区域内的点云进行降采样,体素单元大小为0.1 m×0.1 m×0.1 m。估计每个立方体的形心坐标,以其代表立方体内的所有点云输出。直通滤波与体素滤波能在避免缺失点云特征的前提下有效降低点云数据,加快数据处理速度。
$$ {\rm{dst}}(u,v,w)= \left\{ {\begin{array}{*{20}{l}}{ {\rm{src}}(u,v,w)\text{,} }&{ {d}_{\mathrm{min}} < {\rm{src}}(u,v,w) < {d}_{\mathrm{max}}, }\\ { 0\text{,} }&{\text{其他} },\end{array}} \right. $$ (5) 式中,(u,v,w)为雷达点云的位置坐标,m;dst(u,v,w)为ROI区域内的点云坐标,m;src(u,v,w)为原始点云坐标,m;dmin为直通滤波下限,m;dmax为直通滤波上限,m;dmax取值为LiDAR正前方3~4株植物株距。
2)地面点云分割
采用Ray Ground Filter分割地面点云,具体方法如下:首先,按照LiDAR水平角分辨率将点云剖分为360÷0.2=1800个纵截面,并将每个纵截面内的点按照距离远近排序;其次,设定同条扫描线上邻近两点的坡度阈值(local_max_slope)和整个地面的坡度阈值(general_max_slop),并根据这2个坡度阈值以及当前点的半径(到LiDAR的水平距离)求得高度阈值;最后,若当前点的高度值在地面加减高度阈值范围内,则判定为地面点并删除。
3)半径滤波
受系统测量噪声和环境特性等干扰因素的影响,3D LiDAR点云存在部分离群点,在数据特征上表现为远离目标点云,应当滤除。采用半径滤波去除主干周围的离群点云。半径滤波方法运行速度快,并且依序迭代留下的点一定是最密集的,极其适用于点云数据量大、实时性要求高的场景,流程如图3所示。
1.3.2 植物中心点提取
为获取植物主干区域,提取中心点,刘路等[29]采用了将三维点云投影到二维平面后再进行k-mean聚类的方式,对于未知环境的点云,这种方法难以预先确定聚类簇的数量,部分枝叶的点云也会因相互遮挡难以采集,导致聚类得到的中心点会有较大误差;而DBSCAN聚类算法,由于离LiDAR较近的数据点密度高,在聚类半径相同的情况下,会存在距离较近且较细的杂草枝叶与距离较远且直径较大的树干相比接收到的数据点数量接近甚至更多的现象,从而出现大量误判与漏检;而均值漂移聚类算法受异常值的影响较小,而且能在未知环境下对数据进行聚类,具体流程如下:
1) 在随机一块植物点云中任取一点x作为中心点;
2) 找出离中心点x距离在带宽之内的所有点
$ {x}_{i} $ ,记做集合M,认为这些点属于簇c;3) 如公式(6)所示,计算从中心点开始到集合M中每个元素的向量,将这些向量相加,得到偏移向量M(x);
4) 中心点沿着漂移均值点的方向移动,移动距离是偏移向量的模;
5) 重复步骤2)~4),直到偏移向量的大小满足设定的阈值要求并且逐渐收敛,记住此时的中心点;
6) 重复1) ~ 5)直到所有的点都被归类。
$$ {\boldsymbol{M}} (x) = \dfrac{1}{k} \displaystyle\sum\limits_{{x_i} \in {s_r}} {({x_i} - x)} ,$$ (6) 式中,Sr为以x为圆心、r为半径的圆形区域,m;k为包含在Sr范围内的点的个数;xi为包含在Sr范围内的点。
由于植物间交错的枝叶会影响到植物中心点的判断,因此,必须利用植物的主干信息提取植物行;同时,每株植物枝叶位置随机生长,如图4所示,机器人在前进过程中,3D LiDAR视场随载体运动状态发生变化,而固定参数的直通滤波器不能准确分割植物主干部分的点云。综上,研究提出一种扫描区域自适应的主干中心点提取方法:如图5所示,对每一棵植物的点云沿着高度方向取每层h进行层切[34],分别搜索每层切片点云中点集在X轴和Y轴方向的最大值xmax、ymax与最小值xmin、ymin,根据植物的主干直径与枝叶直径设定阈值[35]dx、dy, 保留同时满足X轴、Y轴阈值条件的点云,自动筛选植物主干部分点云,目标点云的具体表达式如式(7)所示:
$$ \begin{split} &{\rm{dst}}(x,y,z)=\\ &\left\{ {\begin{array}{*{20}{l}}{ {\rm{src}}(x,y,z)\text{,} }&{ 0\leqslant {x}_{\mathrm{max}}-{x}_{\mathrm{min}}\leqslant {d}_{x}\text{ }且 }\\ { }&{ 0\leqslant {y}_{\mathrm{max}}-{y}_{\mathrm{min}}\leqslant {d}_{y}, }\\ { 0\text{,} }&{{ \text{其他} }, }\end{array}} \right. \end{split} $$ (7) 式中,(x, y, z)为分类后每层点云的位置坐标,m;dst(x, y, z)为目标点云坐标,m;src(x, y, z)为原始点云坐标,m;dx为X轴方向的阈值,m;dy为Y轴方向的阈值,m。
主干分割后再进行垂直投影,得到的点云团相对稠密且离群点少,避免了枝叶点云的影响,通过点云团中的点取平均值得到植物中心,精度高,速度快。
1.3.3 植物行拟合
目前,用于植物行识别和导航定位基准线检测的方法主要包括随机样本一致性(Random sample consensus, RANSAC)、Hough变换法和最小二乘法等。其中RANSAC运算速度较慢,随机性较高[36],且LiDAR扫描点云的疏密程度受植株距离的影响,导致RANSAC拟合的路径与真实的路径有所偏差;Hough变换法虽然是应用最广泛的直线监测方法,有较好的鲁棒性并且受噪声影响小,但Hough 变换时间复杂度与空间复杂度较高;与上述2种方法相比,根据植物中心点通过最小二乘法检测路径,误差小,速度快,更符合实际应用需求,具体计算式为(8)~(10):
$$ y = {{a}}x + {{b}}, $$ (8) $$ {S_{{e^2}}} = \displaystyle\sum {{{[f({x_i}) - {y_i}]}^2}} = {\displaystyle\sum {({{a}}{x_i} + {{b}} - {y_i})} ^2}, $$ (9) $$ \left\{ \begin{gathered} \dfrac{\partial }{{\partial {{a}}}}{S_{{e^2}}} = 2\displaystyle\sum {({{a}}{x_i} + {{b}} - {y_i}){x_i}{\text{ = }}} 0 , \\ \dfrac{\partial }{{\partial {{b}}}}{S_{{e^2}}} = 2\displaystyle\sum {({{a}}{x_i} + {{b}} - {y_i})} {\text{ = }}0 , \\ \end{gathered} \right. $$ (10) 式中,y为假设植物行的线性方程;
${{S}_{{{e}^{\text{2}}}}}$ 为总误差平方和;xi为植物主干中心点x坐标;yi为植物主干中心点y坐标;a、b为常数。1.4 植物行提取方法的精度验证
为验证通过上述方法拟合的植物行精度,进行了LiDAR识别植物行的精度验证试验。常用作真值参考的RTK-GNSS定位方法在树林场景中失效,一些常用的室内定位手段,如超宽带(Ultra wide band,UWB)技术,精度较低,为5~10 cm。因此,参照文献[29]和[37]中的方法,在开阔地建立仿真果园,使用RTK 定位系统验证所提出算法的精度。如图6a所示,采用粘贴有芦苇叶且直径不同的塑料圆管模拟植物,每根圆管高为1 m,直径25~50 mm,其中一次试验排列方式如图6b所示。使用LiDAR获取模拟植物的点云信息并通过LiDAR内置IMU进行姿态校正,得到导航坐标系下的点云;再将GNSS天线分别放置在每个圆管的圆心处得到每个圆管圆心处的经纬度信息,采用高斯吕格投影[38],将GNSS天线采集的坐标数据从WGS-84坐标系也转化至导航坐标系下以获取模拟植物位置真值,测量一段时间,取平均值;最后用最小二乘法分别对LiDAR点云和植物坐标真值进行直线拟合,并根据拟合的直线倾角评价二者结果,验证算法的精度。
每完成一次扫描感知后,任意改变圆管的排布位置,进行下一次扫描,试验共进行3次。
2. 结果与分析
2.1 LiDAR植物行识别结果
其中一组试验的算法各步处理结果如图7所示,具体步骤如下:
1) LiDAR扫描模拟植物并经过直通滤波选择ROI如图7a所示,此时点云图中有较多的大尺度噪点,使用半径滤波去除噪点得到图7b所示的点云,完成点云的预处理;
2) 通过均值漂移聚类将每株植物进行分类得到图7c结果,将每棵模拟植物进行高度自适应分割点云,去除枝叶部分点云,保留主干部分点云,效果如图7d;
3) 将得到的主干部分点云投影到大地平面,分别取平均值找到每棵模拟植物的中心点,如图7e;
4)利用最小二乘法拟合模拟植物中心直线方程,结果如图7f所示。
由于采用直尺测量模拟作物间的相对位置作为定位真值,易产生较大的累计或坐标系对齐误差,因此,本试验以RTK-GNSS定位为真值,以直线方程与导航坐标系正东方向夹角为指标,评价算法精度。针对其中一次试验,分别采用LiDAR和RTK-GNSS天线定位,采集模拟植物的定位信息。根据上述试验方法,调整模拟植物的间距以及排列方式,控制农业机器人收集点云数据并提取植物行,如图8a所示。用GNSS天线采集每组模拟植物的坐标真值,如表1所示,并同样利用最小二乘法将坐标真值拟合成直线方程,如图8b所示。分析并统计每次试验中农业机器人识别到的植物行与行真值直线方程间的误差。
表 1 模拟植物坐标GNSS测量值1)Table 1. GNSS measurements of simulated plant coordinates试验
Test左侧植物行 Left plant row 右侧植物行 Right plant row (x1, y1) (x2, y2) (x3, y3) (x4, y4) (x5, y5) (x6, y6) (x7, y7) (x7, y7) 1 (3.528, −5.666) (4.145, −5.682) (4.797, −5.633) (5.494, −5.756) (5.424, −6.895) (4.827, −6.915) (4.054, −6.989) (3.602, −6.997) 2 (2.091, 3.605) (2.683, 3.522) (3.312, 3.627) (3.960, 3.445) (2.062, 2.158) (2.753, 2.187) (3.253, 2.007) (3.822, 2.201) 3 (2.126, 3.914) (2.803, 3.738) (3.447, 3.899) (4.112, 3.837) (2.258, 2.562) (2.844, 2.444) (3.532, 2.639) (4.174, 2.553) 1)(xi, yi)为GNSS测量得到的每株模拟植物的坐标
1)(xi, yi) is the coordinate of each simulated plant obtained by GNSS measurement2.2 精度验证结果
将导航坐标系和LiDAR坐标系标定、投影之后,直线方程斜率即为与正东方夹角,根据上述试验的结果,通过计算每组试验对应的植物行与正东方的夹角判断试验的精度,试验共进行3次,每次对2行模拟植物进行扫描估计,得到6条直线方程,结果如表2所示。基于植物行与正东方的夹角,LiDAR识别植物行夹角平均绝对误差为0.79°,最小绝对误差为0.12°,最大绝对误差为1.49°。误差产生的可能原因包括传感器与GNSS的测量误差、LiDAR坐标系与导航坐标系的标定误差、LiDAR的安装误差、数值计算误差以及最小二乘法拟合产生的误差等,但不影响导航或者小车通过。
表 2 模拟试验中基于植物行与正东方的夹角判断LiDAR识别植物行精度Table 2. Aaccuracy evaluation of LiDAR recognition of plant rows based on the angle between the plant rows and due east in simulation experiment植物行
序号
Plant line
number夹角真
值/(°)
True value of
the angleLiDAR识别
夹角/(°)
Angle identified
by LiDAR绝对
误差/(°)
Absolute
error1 −1.97 −1.57 0.40 2 3.55 4.65 1.10 3 −3.49 −2.92 0.57 4 −0.40 −0.52 0.12 5 −0.69 −2.18 1.49 6 1.60 0.57 1.03 2.3 田间试验
为验证提出算法的有效性,在浙江理工大学的水杉树林(图9,树的直径为200~400 mm)开展田间验证试验,将小车行驶至树林某一位置利用3D LiDAR扫描树木,记录3组试验的点云数据,并以小车初始位置为原点,建立导航坐标系,通过卷尺测量水杉树到小车的距离作为植物坐标真值,利用最小二乘法对植株真值坐标进行拟合,与处理LiDAR点云(图10a)提取的植物行对比,验证田间试验精度。植株行拟合结果如图10b所示。
试验数据如表3所示,田间试验中采用本文提出的方法得到的植物行角度与真实的植物行角度平均绝对误差为1.48°,最小绝对误差为0.88°,最大绝对误差为2.33°。相比于模拟试验,误差有所提升;误差提升的可能原因包括卷尺测量实际植物中心产生的测量误差、小车重复试验产生的初始偏差、LiDAR坐标系与导航坐标系的标定误差、LiDAR的安装误差、数值计算误差以及最小二乘法拟合产生的误差等,但不影响导航或者小车通过。田间试验表明,利用本文提出的方法,农业机器人能实现在未知环境下对植物行信息的有效估计。
表 3 田间试验中基于植物行与正东方的夹角判断LiDAR识别植物行精度Table 3. Accuracy evaluation the of LiDAR recognition of plant rows based on the angle between the plant rows and due east in field experiment植物行
序号
Plant line
number夹角真
值/(°)
True value of
the angleLiDAR识别
夹角/(°)
Angle identified
by LiDAR绝对
误差/(°)
Absolute
error1 −0.46 0.92 1.38 2 −1.58 −2.52 0.94 3 −0.46 1.87 2.33 4 −1.58 −2.93 1.35 5 −0.46 0.42 0.88 6 −1.58 −3.66 2.08 3. 结论
1) 针对林间或冠层下GNSS信号遮挡严重的区域,提出一种低成本3D LiDAR感知点云数据处理与植物行信息提取方法,该方法可利用3D LiDAR内置IMU补偿载体运动姿态变化对采集的点云空间坐标的影响。
2) 为避免枝叶影响算法对植株中心的判断,提高算法参数对由于机器人运动导致的LiDAR视场变化的适应性,设计了一种植物行估计算法。先后采用均值漂移聚类、扫描区域自适应的方法分割每棵植物的主干,垂直投影主干点云估算植物中心点,最后利用最小二乘法提取出植物行信息。
3) 为评价研究提出的基于3D LiDAR的植物行识别精度,进行了精度验证试验与田间试验,以植物行向量与正东方夹角为指标,比较研究提出的方法识别的植物行信息与卫星天线定位测得的植物行真值间角度误差。结果表明,采用提出的3D LiDAR点云信息处理与植物行估计方法,模拟试验与田间试验对植物行识别误差平均值分别为0.79°、1.48°,最小值为0.12°、0.88°,最大值为1.49°、2.33°。因此,利用本文提出的方法,农业机器人能实现在未知环境下对植物行信息的有效估计。
-
图 2 导航坐标系与 IMU 坐标系相对位置
Li为LiDAR测得天线中心点的极径;E、F、G为导航坐标系下GNSS天线位置;E'、F'、G'为IMU坐标系下GNSS天线位置;ONXNYNZN为导航坐标系;OIXIYIZI为IMU坐标系
Figure 2. Relative position of navigation coordinate system and IMU coordinate system
Li is the polar diameter of the center point of the antenna measured by LiDAR; E,F and G are GNSS antenna positions in the navigation coordinate system; E',F' and G' are GNSS antenna positions in the IMU coordinate system; ONXNYNZN is the navigation coordinate system; OIXIYIZI is the IMU coordinate system
表 1 模拟植物坐标GNSS测量值1)
Table 1 GNSS measurements of simulated plant coordinates
试验
Test左侧植物行 Left plant row 右侧植物行 Right plant row (x1, y1) (x2, y2) (x3, y3) (x4, y4) (x5, y5) (x6, y6) (x7, y7) (x7, y7) 1 (3.528, −5.666) (4.145, −5.682) (4.797, −5.633) (5.494, −5.756) (5.424, −6.895) (4.827, −6.915) (4.054, −6.989) (3.602, −6.997) 2 (2.091, 3.605) (2.683, 3.522) (3.312, 3.627) (3.960, 3.445) (2.062, 2.158) (2.753, 2.187) (3.253, 2.007) (3.822, 2.201) 3 (2.126, 3.914) (2.803, 3.738) (3.447, 3.899) (4.112, 3.837) (2.258, 2.562) (2.844, 2.444) (3.532, 2.639) (4.174, 2.553) 1)(xi, yi)为GNSS测量得到的每株模拟植物的坐标
1)(xi, yi) is the coordinate of each simulated plant obtained by GNSS measurement表 2 模拟试验中基于植物行与正东方的夹角判断LiDAR识别植物行精度
Table 2 Aaccuracy evaluation of LiDAR recognition of plant rows based on the angle between the plant rows and due east in simulation experiment
植物行
序号
Plant line
number夹角真
值/(°)
True value of
the angleLiDAR识别
夹角/(°)
Angle identified
by LiDAR绝对
误差/(°)
Absolute
error1 −1.97 −1.57 0.40 2 3.55 4.65 1.10 3 −3.49 −2.92 0.57 4 −0.40 −0.52 0.12 5 −0.69 −2.18 1.49 6 1.60 0.57 1.03 表 3 田间试验中基于植物行与正东方的夹角判断LiDAR识别植物行精度
Table 3 Accuracy evaluation the of LiDAR recognition of plant rows based on the angle between the plant rows and due east in field experiment
植物行
序号
Plant line
number夹角真
值/(°)
True value of
the angleLiDAR识别
夹角/(°)
Angle identified
by LiDAR绝对
误差/(°)
Absolute
error1 −0.46 0.92 1.38 2 −1.58 −2.52 0.94 3 −0.46 1.87 2.33 4 −1.58 −2.93 1.35 5 −0.46 0.42 0.88 6 −1.58 −3.66 2.08 -
[1] 刘建威. 中国工程院院士罗锡文在惠详解未来无人智慧农业[N/OL]. 惠州日报, 2020-11-20[2021-04-28]. https://new.qq.com/omn/20201120/20201120A023QU00.html. [2] 刘成良, 林洪振, 李彦明, 等. 农业装备智能控制技术研究现状与发展趋势分析[J]. 农业机械学报, 2020, 51(1): 1-18. doi: 10.6041/j.issn.1000-1298.2020.01.001 [3] 魏爽, 李世超, 张漫, 等. 基于GNSS的农机自动导航路径搜索及转向控制[J]. 农业工程学报, 2017, 33(S1): 70-77. doi: 10.11975/j.issn.1002-6819.2017.z1.011 [4] 王辉, 王桂民, 罗锡文, 等. 基于预瞄追踪模型的农机导航路径跟踪控制方法[J]. 农业工程学报, 2019, 35(4): 11-19. doi: 10.11975/j.issn.1002-6819.2019.04.002 [5] 陈子文, 李伟, 张文强, 等. 基于自动Hough变换累加阈值的蔬菜作物行提取方法研究[J]. 农业工程学报, 2019, 35(22): 314-322. doi: 10.11975/j.issn.1002-6819.2019.22.037 [6] 杨洋, 张博立, 查家翼, 等. 玉米行间导航线实时提取[J]. 农业工程学报, 2020, 36(12): 162-171. doi: 10.11975/j.issn.1002-6819.2020.12.020 [7] 张漫, 季宇寒, 李世超, 等. 农业机械导航技术研究进展[J]. 农业机械学报, 2020, 51(4): 1-18. doi: 10.6041/j.issn.1000-1298.2020.04.001 [8] 师小波, 赵丁选, 孔志飞, 等. 基于多传感器信息融合的车辆高精度定位技术[J]. 中国机械工程, 2022, 33(19): 2381-2387. [9] 徐筱龙, 徐国华. OutLand1000水下机器人的视觉定位研究[J]. 中国机械工程, 2010, 21(11): 1288-1292. [10] 王殿君. 双目视觉在移动机器人定位中的应用[J]. 中国机械工程, 2013, 24(9): 1155-1158. doi: 10.3969/j.issn.1004-132X.2013.09.005 [11] 张雄楚, 陈兵旗, 李景彬, 等. 红枣收获机视觉导航路径检测[J]. 农业工程学报, 2020, 36(13): 133-140. doi: 10.11975/j.issn.1002-6819.2020.13.016 [12] 袁鹏成, 李秋洁, 邓贤, 等. 基于LiDAR的对靶喷雾实时控制系统设计与试验[J]. 农业机械学报, 2020, 51(S1): 273-280. doi: 10.6041/j.issn.1000-1298.2020.S1.032 [13] 赵腾. 基于激光扫描的联合收割机自动导航方法研究[D]. 杨凌: 西北农林科技大学, 2017. [14] 张美娜, 吕晓兰, 邱威, 等. 基于三维激光点云的靶标叶面积密度计算方法[J]. 农业机械学报, 2017, 48(11): 172-178. doi: 10.6041/j.issn.1000-1298.2017.11.021 [15] 程曼, 蔡振江, WANG N, 等. 基于地面激光雷达的田间花生冠层高度测量系统研制[J]. 农业工程学报, 2019, 35(1): 180-187. doi: 10.11975/j.issn.1002-6819.2019.01.022 [16] 蔡吉晨. 基于二维激光雷达的果树在线探测方法及对靶变量喷药技术研究[D]. 北京: 中国农业大学, 2018. [17] 薛秀云, 许旭锋, 李震, 等. 基于叶墙面积的果树施药量模型设计及试验[J]. 农业工程学报, 2020, 36(2): 16-22. doi: 10.11975/j.issn.1002-6819.2020.02.003 [18] 侯加林, 蒲文洋, 李天华, 等. 双激光雷达温室运输机器人导航系统研制[J]. 农业工程学报, 2020, 36(14): 80-88. doi: 10.11975/j.issn.1002-6819.2020.14.010 [19] 胡延平, 刘菲, 魏振亚, 等. 毫米波雷达与视觉传感器信息融合的车辆跟踪[J]. 中国机械工程, 2021, 32(18): 2181-2188. doi: 10.3969/j.issn.1004-132X.2021.18.006 [20] ILCI V, TOTH C. High definition 3D map creation using GNSS/IMU/LiDAR sensor integration to support autonomous vehicle navigation[J]. Sensors, 2020, 20(3): 899. doi: 10.3390/s20030899
[21] JAVANMARDI E, GU Y L, JAVANMARDI M, et al. Autonomous vehicle self-localization based on abstract map and multi-channel LiDAR in urban area[J]. IATSS Research, 2019, 43(1): 1-13. doi: 10.1016/j.iatssr.2018.05.001
[22] 侯德藻, 李克强, 连小珉, 等. 新型车载探测雷达系统技术研究[J]. 中国机械工程, 2004(21): 13-16. doi: 10.3321/j.issn:1004-132X.2004.21.003 [23] 管贤平, 刘宽, 邱白晶, 等. 基于机载三维激光扫描的大豆冠层几何参数提取[J]. 农业工程学报, 2019, 35(23): 96-103. doi: 10.11975/j.issn.1002-6819.2019.23.012 [24] GUO T, FANG Y, CHENG T, et al. Detection of wheat height using optimized multi-scan mode of LiDAR during the entire growth stages[J]. Computers and Electronics in Agriculture, 2019, 165: 104959. doi: 10.1016/j.compag.2019.104959
[25] 刘守阳, 金时超, 郭庆华, 等. 基于数字化植物表型平台(D3P)的田间小麦冠层光截获算法开发[J]. 智慧农业(中英文), 2020, 2(1): 87-98. [26] 陈莉. 玉米三维模型的重构及时序插值技术研究[D]. 成都: 电子科技大学, 2015. [27] 苏伟, 蒋坤萍, 郭浩, 等. 地基激光雷达提取大田玉米植株表型信息[J]. 农业工程学报, 2019, 35(10): 125-130. doi: 10.11975/j.issn.1002-6819.2019.10.016 [28] 陈日强, 李长春, 杨贵军, 等. 无人机机载激光雷达提取果树单木树冠信息[J]. 农业工程学报, 2020, 36(22): 50-59. doi: 10.11975/j.issn.1002-6819.2020.22.006 [29] 刘路, 潘艳娟, 陈志健, 等. 高遮挡环境下玉米植保机器人作物行间导航研究[J]. 农业机械学报, 2020, 51(10): 11-17. doi: 10.6041/j.issn.1000-1298.2020.10.002 [30] 刘宽. LiDAR技术在农作物几何特征探测中的应用研究[D]. 镇江: 江苏大学, 2019. [31] GASPARINO M V, HIGUTI V A H, VELASQUEZ A E B, et al. Improved localization in a corn crop row using a rotated laser rangefinder for three-dimensional data acquisition[J]. Journal of the Brazilian Society of Mechanical Sciences and Engineering, 2020, 42(11): 592. doi: 10.1007/s40430-020-02673-z
[32] 孙意凡, 孙建桐, 赵然, 等. 果实采摘机器人设计与导航系统性能分析[J]. 农业机械学报, 2019, 50(S1): 8-14. doi: 10.6041/j.issn.1000-1298.2019.S0.002 [33] 史红霞, 王建民. 基于法向量区域聚类分割的点云特征线提取[J]. 中国机械工程, 2021, 32(21): 2552-2561. doi: 10.3969/j.issn.1004-132X.2021.21.004 [34] 王庆, 车荧璞, 柴宏红, 等. 基于无人机可见光与激光雷达的甜菜株高定量评估[J]. 农业机械学报, 2021, 52(3): 178-184. doi: 10.6041/j.issn.1000-1298.2021.03.019 [35] 张鹏鹏. 基于LiDAR数据的成熟水稻主要属性参数反演关键技术研究[D]. 镇江: 江苏大学, 2020. [36] 管郡智. 基于激光雷达的三维点云目标检测算法研究[D]. 杭州: 浙江科技学院, 2020. [37] 刘伟洪, 何雄奎, 刘亚佳, 等. 果园行间3D LiDAR导航方法[J]. 农业工程学报, 2021, 37(9): 165-174. doi: 10.11975/j.issn.1002-6819.2021.09.019 [38] 季宇寒, 徐弘祯, 张漫, 等. 基于激光雷达的农田环境点云采集系统设计[J]. 农业机械学报, 2019, 50(S1): 1-7. doi: 10.6041/j.issn.1000-1298.2019.S0.001 -
期刊类型引用(3)
1. 孙业康. 广州火炉山森林公园鸟类群落结构和多样性调查. 中南农业科技. 2025(02): 127-131+147 . 百度学术
2. 黎磊,罗堯,胡平,王志勇,王品,杨道德. 湖南宁乡市鸟类物种多样性调查与分析. 南方林业科学. 2024(04): 45-51 . 百度学术
3. 徐亚兰,杨智敏,卢盛俊,周帆,王斌. 永州市冷水滩区鸟类资源调查及多样性分析. 湖南师范大学自然科学学报. 2024(05): 134-142 . 百度学术
其他类型引用(4)