基于SLAM与神经辐射场的柑橘幼苗三维重建方法

    郭俊, 杨达成, 莫振杰, 兰玉彬, 张亚莉

    郭俊, 杨达成, 莫振杰, 等. 基于SLAM与神经辐射场的柑橘幼苗三维重建方法[J]. 华南农业大学学报, 2025, 46(3): 429-438. DOI: 10.7671/j.issn.1001-411X.202405030
    引用本文: 郭俊, 杨达成, 莫振杰, 等. 基于SLAM与神经辐射场的柑橘幼苗三维重建方法[J]. 华南农业大学学报, 2025, 46(3): 429-438. DOI: 10.7671/j.issn.1001-411X.202405030
    GUO Jun, YANG Dacheng, MO Zhenjie, et al. 3D reconstruction of citrus seedlings based on SLAM and NeRF[J]. Journal of South China Agricultural University, 2025, 46(3): 429-438. DOI: 10.7671/j.issn.1001-411X.202405030
    Citation: GUO Jun, YANG Dacheng, MO Zhenjie, et al. 3D reconstruction of citrus seedlings based on SLAM and NeRF[J]. Journal of South China Agricultural University, 2025, 46(3): 429-438. DOI: 10.7671/j.issn.1001-411X.202405030

    基于SLAM与神经辐射场的柑橘幼苗三维重建方法

    基金项目: 

    岭南现代农业实验室项目(NT2021009);高等学校学科创新引智计划(D18019);广东省重点领域研发计划(2019B02022101);广东省科技计划(2018A050506073)

    详细信息
      作者简介:

      郭 俊,E-mail: junguo@stu.scau.edu.cn

      通讯作者:

      张亚莉,主要从事农业航空传感器和农产品产地环境监测等研究,E-mail: ylzhang@scau.edu.cn

    • 中图分类号: S24;S666

    3D reconstruction of citrus seedlings based on SLAM and NeRF

    Article Text (iFLYTEK Translation)
    • 摘要:
      目的 

      针对现有三维重建技术难以获取柑橘幼苗精细三维点云及其三维表型参数来表征幼苗状态的问题,提出一种基于同时定位与地图构建算法(Simultaneous localization and mapping,SLAM)与神经辐射场(Neural radiance fields,NeRF)的柑橘幼苗三维重建方法。

      方法 

      以1年期的柑橘幼苗为研究对象,首先,利用深度传感器获取柑橘幼苗的RGB和深度图;其次,使用SLAM计算深度传感器在每一帧图像的位姿;然后训练幼苗NeRF网络,将附有位姿的多视角图像输入多层感知机(Multilayer erceptron, MLP);最后,通过体积渲染监督训练,重建高精细的三维实景点云模型。

      结果 

      本文方法重建的柑橘幼苗三维模型,在色彩与纹理方面极具真实性,模型轮廓清晰、层次分明,具有实景级的精度。该模型可有效提取柑橘幼苗的三维表型参数,株高、宽幅长、宽幅宽和胸径的准确率分别为97.94%、 93.95%、94.11%和97.62%。

      结论 

      研究有助于加快优良柑橘幼苗的选育进程,可为柑橘产业的可持续性发展提供技术支持。

      Abstract:
      Objective 

      Aiming at the problem that it is difficult to obtain the accurate 3D point cloud of citrus seedlings and their 3D phenotypic parameters to characterize the state of seedlings with the existing 3D reconstruction techniques, this paper proposes a method based on the simultaneous localization and mapping (SLAM) and neural radiance fields (NeRF) for 3D reconstruction of citrus seedlings.

      Method 

      One-year old citrus seedlings were taken as the research object. Firstly, a depth sensor was used to capture the RGB map and depth map of the citrus seedling. Secondly, SLAM was employed to obtain the poses of the depth sensor in each frame of the image. Then, NeRF was trained for citrus seedlings, and the multi-view images with attached positional pose were fed into the multilayer erceptron (MLP). Finally, through supervised training with volume rendering, a high-precision 3D realistic point cloud model of citrus seedlings was reconstructed.

      Result 

      The 3D model of citrus seedlings reconstructed by this method was highly realistic in terms of color and texture, with clear contours and distinct layers, and had real-world level accuracy. Based on this model, the 3D phenotypic parameters of citrus seedlings could be effectively extracted with the accuracy of 97.94% for plant height, 93.95% for breadth length, 94.11% for breadth width and 97.62% for stem thickness.

      Conclusion 

      This study helps to accelerate the selection and nursery process of excellent citrus seedlings and provides a technical support for the sustainable development of the citrus industry.

    • 化学除草是目前最有效且广泛采用的水稻田杂草管控方式[],常用的方法是对整个作业区域均匀和覆盖式的喷洒除草[],以无序的“点状”或“片状”形式存在的杂草会导致农药喷洒过量。“精准农业航空”中基于遥感分析的精准施药为解决农药过量施用问题提供了一种新思路[-]。精准施药的首要任务是获取水稻田的遥感图像并分析其中的杂草分布状况,得到网格形状的杂草分布图。水稻田图像中水稻及杂草颜色相近,若依据图像识别其差异,则要求遥感图像具有较高的空间分辨率。近年来无人机低空遥感因操作简单、节省人力物力并可获得高分辨率影像的优势为农作物分类调查提供了新思路[],相比传统卫星影像,具有获取方式更灵活、时效高等特点,在农情监测、精准农业等领域得到越来越多的应用[-]。利用无人机采集水稻田的遥感图像并进行农情分析在国内外已有类似的研究。Barrero等[]使用神经网络(Neural network)对水稻杂草航空图像进行检测,检测准确率高达99%;Barrero等[]根据无人机拍摄的图像提出一种融合低分辨率多光谱和高分辨率RGB图像的方法检测水稻田杂草,采用神经网络对RGB、RGB+NGRDI和融合RGB-NGRDI 共3种图像进行检测,结果表明基于融合图像的杂草检测精度最高,在70%~85%之间;Uto等[]使用无人机获取水稻的高光谱数据,通过频繁地监测照明水平和叶绿素指数获得水稻田的生长信息;马明洋[]使用无人机获取稻田中水稻冠层高光谱影像信息,对光谱特征信息进行分类,其中使用二代小波分解算法分类精度最高,达到90.36%;洪雪[]利用无人机获得农田中水稻的光谱数据,使用BP神经网络建模对水稻产量进行预测;Ma等[]使用SegNet、FCN和U-Net 共3种语义分割模型对水稻田中的水稻杂草图像进行像素级的分割,结果表明,SegNet算法识别效果最好,达到92.7%的准确率。相关研究主要集中在对水稻田杂草的识别检测上,获取水稻田中杂草分布信息并生成水稻田间杂草分布图的研究相对较少。本文拟采用大疆精灵4无人机及其携带的可见光相机采集遥感图像,以水稻杂草为识别目标,对比支持向量机(Support vehicle machine, SVM)、K最近邻算法(K-nearest neighbor, KNN)、AdaBoost共3种机器学习方法和卷积神经网络(Convolutional neural network,CNN)方法对水稻和杂草的分类效果,获取水稻田间杂草分布信息,生成分类效果最好的水稻田间杂草分布图,为后续植保无人机进行精准施药提供决策依据。

      研究区域位于华南农业大学增城试验基地(中国广东省广州市,坐标23°14′N、113°38′E,基准WGS84)(图1)。本研究于2017年10月2日对试验基地中某一块稻田进行RGB图像采集,数据采集设备为大疆精灵4无人机,结合地面站软件DJI GS PRO进行航线规划。经实地验证,研究区域的杂草主要有千金子和莎草。

      图 1 试验数据采集点
      图  1  试验数据采集点
      Figure  1.  Location of test data collection

      无人机飞行高度依次设置为6、8、10 m。横、纵向重叠率分别为60%和50%。本次试验采集图像120幅,每幅图像的分辨率为4 000像素×3 000像素,空间分辨率为0.3 cm。采集到的图像如图2a所示。根据人眼对水稻和杂草的识别效果以及需要对采集的图像使用有监督学习作用的方法进行标注,试验选择飞行高度为6 m。在采集到的无人机遥感图像中,所有物体被分为3个类别:水稻、杂草以及其他(包括水泥地、土壤、地面等)。本文分别使用绿色表示水稻,红色表示杂草,灰色代表其他,对每一张图像中3个类别进行基于像素级别的颜色标注,如图2b所示。

      图 2 无人机拍摄的原图和对应的标注图
      图  2  无人机拍摄的原图和对应的标注图
      Figure  2.  Original image taken by UAV and corresponding annotated image
      图 3 3种类别样本的RGB像素平均值
      图  3  3种类别样本的RGB像素平均值
      Figure  3.  RGB pixel means of three category samples

      根据田间地面的实际验证,在1个0.3 m×0.3 m的网格中有95%以上概率可确认只有1个类别。考虑有限的计算机资源以及图像的分辨率即像素尺寸为4 000×3 000,空间分辨率为0.3 cm,根据计算,0.3 m×0.3 m的地面区域对应图像的像素尺寸为100×100,因此本文将每幅4 000像素×3 000像素的原图像与标记图像分别切割成1 200块像素大小为100×100的小网格。对原图像切割成的小网格图片与标记图切割成的小网格图片进行效果比对,在标记图小网格图库中,按照单一颜色或者某种颜色超过95%的选取规则与原图像库中的小图片进行对应,按照随机性以及训练集与测试集5∶1的原则选出6 000幅小网格图片作为训练集,选取1 200幅小网格图片作为测试集。

      颜色特征是基于图像像素提取的,具有旋转、尺度和平移不变性等优点[],是人眼获取的最为有效且明显的信息之一。它的获取及计算较简单,常用作特征向量训练机器学习模型。本试验拟对小样本提取RGB三通道颜色的最大值、最小值与平均值。从原图小网格图库中随机选取3种类别小图片各3 200幅用于统计RGB像素平均值(图3),不同类别样本提取出的颜色特征有一些差异。

      本文的图像属于单视图数据,数据维数巨大。尽管高维数据含有更加丰富的信息,但对于分类、聚类等任务,要付出巨大的计算和存储代价,而且在测试集数量一定时,特征维数的增加将使样本统计特性变得困难,降低分类器的泛化能力[]。本文使用对单视图数据有较好泛化性能的主成分分析(Principal component analysis,PCA)对图像数据进行降维。PCA是Karl Pearson[]在1901年提出的概念,1933年Hotelling[]完善其数学基础。本研究原始图像的特征向量有30 000维存在噪声和冗余信息,会对分类器造成干扰,因此采用PCA降维来消除这种影响[]。经过如图4所示的PCA计算流程,为保留90%有效信息并降到50维,剔除无效的信息,保留有用的特征信息,形成特征向量集。结合提取到的颜色特征分别送入SVM、KNN和AdaBoost 3种分类器中进行识别分类。

      图 4 主成分分析算法计算流程图
      图  4  主成分分析算法计算流程图
      Figure  4.  Calculation process of principal component analysis algorithm

      CNN可以自动学习输入图像中的特征,并对学习到的特征进行自动分类,网络直接输出该图像的类别概率,是一种端到端的图像识别方法[]。CNN通过卷积运算完成特征提取。图像卷积运算是通过设定各种特征提取滤波器矩阵,然后使用该卷积核在原图像矩阵(图像实际是像素值构成的矩阵)“滑动”,实现卷积运算。因此,基于CNN对图像的分类无需做预处理,可直接进行模型的训练。本文的技术路线如图5所示。对原始图像进行标注、切割后使用3种机器学习算法和CNN对小图片进行分类,并形成水稻田中的杂草分布图。

      图 5 利用3种机器学习算法和CNN生成水稻田杂草分布图的技术路线图
      图  5  利用3种机器学习算法和CNN生成水稻田杂草分布图的技术路线图
      Figure  5.  Technical routes of using three kinds of machine learning algorithms and CNN to generate distribution map of paddy weeds

      常用的监督分类方法有最大似然[]、神经网络[-]、SVM[-],常用的非监督分类方法有K−均值、模糊C−均值(Fuzzy C-mean,FCM)[-]等。获取的图像数据经标注后使得本文的分类方法成为监督分类范畴。

      SVM是一种可分析数据、识别模型和分类的监督学习模型[-]。SVM算法在于寻找一个超平面,该超平面可将训练集中的数据分开,且与类域边界边沿垂直于该超平面方向的距离最大,从而达到最大的泛化能力[]。对于任意数据集 $\mathbb T $ 和超平面 ${\boldsymbol{\omega}} {{x + {\boldsymbol{b}} = 0}}$ ,定义超平面关于样本点 $({{{x}}_{{i}}},\ {{{y}}_{{i}}})$ 的几何间距(ri)为:

      $${\gamma _{{i}}}{\rm{ = }}{{{y}}_{{i}}}\Bigg(\frac{{\boldsymbol{\omega}} }{{\parallel {\boldsymbol{\omega}} \parallel }} x_i{\rm{ + }}\frac{{\boldsymbol{b}}}{{\parallel {\boldsymbol{\omega}} \parallel }}\Bigg),$$ (1)

      式中, ${\boldsymbol{\omega}}$ b分别是超平面的权重向量与截距向量。关于全部样本点的几何间隔的最小值 $(\gamma) $ 为:

      $$\gamma {\rm{ = min}}{\gamma _i}(i = 1,2\cdots ,n),$$ (2)

      即向量到超平面的距离。

      以上都是针对数据线性可分推导的,本文的图像数据属于线性不可分,必须确定惩罚系数c和径向基函数g,再选择更优的核函数将数据映射到更高维空间,有效解决数据低维和高维空间映射造成计算复杂度增加的问题[]。常用的核函数有线性核、多项式核、径向基内核和Sigmoid核。选择核函数时要考虑数据的特点和数据量,本次SVM模型使用的是Sigmoid核,通过使用不同的核函数和参数cg寻优,Sigmoid核的公式如下所示:

      $$K(x,y) = \tanh (\mathop {{{a}}x}\nolimits^{\rm T} y + b),$$ (3)

      式中,ab为人工设置的参数,a为正实数,b为非负实数。

      KNN是机器学习领域最常用的分类算法,也是一种回归的非参数统计方法[]。优点是可用于非线性分类,适用于本文的遥感数据且对异常数据不敏感,缺点是需要大量的存储空间,计算耗时。分类的思路是假设一个样本在特征空间中的k个最近邻的样本大多数属于某个类别,则将该样本也划分成这个类别。本文使用KNN算法建模时,关于距离的度量方法使用的是欧几里得距离公式,具体如下:

      $$D = \sqrt {\sum\limits_{i = 1}^n {{{({x_i} - {y_i})}^2}} } ,$$ (4)

      式中, ${x_i}$ 代表待测样本, ${y_i}$ 代表已知样本,n代表样本数。

      本文选取AdaBoost算法构建小尺度的水稻田杂草图像分类模型。AdaBoost算法是由Freund等[]提出的目前使用和研究最多的集成算法,该算法的思想是将若干个分类能力较弱的分类器按照一定的方式混合成为分类能力很强的强分类器[-]。AdaBoost算法计算流程如下:

      1)构造图像特征数据训练集为G={ $({x_1}, {y_2}), ({x_2},{y_2})\cdots,({x_n},{y_n})$ },xn为图像的特征数据集,yn为标签集。

      2)初始化每个图像特征数据的权值D1={ ${w_1},{w_2}\cdots,{w_n}$ }, ${w_n}$ =1/n ${w_n}$ 为第n个图像特征数据对应的初始权值。

      3)迭代k次(k=1, 2···, K),使用决策树算法对有权值分布的训练集训练出弱分类器。

      作为一种深度学习方法,CNN已成为当前图像理解领域的研究热点[],其权值共享网络结构在网络输入为多维图像时尤为方便,图像可直接作为网络输入,避免传统识别算法中复杂的特征提取和数据重建过程[]。本文采用CNN对采集到的水稻田杂草图像进行分类,CNN结构的隐含层一般包含卷积层、采样层、池化层和全连接层等几类常见的层结构,本文使用的卷积层结构如图6所示。

      图 6 卷积神经网络结构
      图  6  卷积神经网络结构
      Figure  6.  Convolutional neural network structure

      卷积层中的卷积核包含权重系数,用来自动提取图像的特征。本文所使用的CNN结构是在Ubuntu16.04系统下,框架为tensorflow 1.5,编程语言为Python,训练集与测试集的图片分别为6 000与1 200幅。考虑到有限的计算机资源,卷积层只设置5个卷积核,每个卷积核大小为1,利用ReLU函数进行激活。池化层池化窗口大小为5×5,步长为2×2。将提取到的三维特征转化成一维向量,全连接层对提取到的特征进行分类。学习率设置为10−5,最后选用AdamOptimizer优化网络。

      对相同的数据集经过颜色特征的提取和PCA降维后,将形成的特征向量集分别送入到SVM、KNN以及AdaBoost分类器中进行分类。对分类器的参数进行多次的调优试验。

      试验结果表明,SVM算法对3种作物类别(水稻、杂草、其他)的综合分类精度为89.75%。图7展示的是KNN算法分类精度与k值的关系,当k取14时,KNN综合识别精度最高,为85.58%。AdaBoost分类器对水稻杂草图像的综合分类精度为90.25%,为3种机器学习算法中最高。3种模型的综合识别精度、混淆矩阵精度和运行时间如表1所示。

      图 7 KNN算法k值与分类精度的关系
      图  7  KNN算法k值与分类精度的关系
      Figure  7.  Relationship between k value and classification accuracy in KNN algorithm
      表  1  3个模型的混淆矩阵精度、运行时间和综合识别精度
      Table  1.  Confusion matrix accuracy, run time and integrated recognition accuracy of three models
      模型
      Model
      项目
      Item
      精度/% Accuracy 运行时间/s
      Run time
      综合识别精度/%
      Integrated recognition accuracy
      真实为杂草
      True weed
      真实为水稻
      True rice
      真实为其他
      True other object
      SVM 预测为杂草 Predicted weed 78.04 10.98 10.98 0.500 4 89.75
      预测为水稻 Predicted rice 7.07 92.60 0.32
      预测为其他
      Predicted other object
      2.40 0.90 96.69
      KNN 预测为杂草 Predicted weed 87.80 4.47 0.07 2.209 2 85.58
      预测为水稻 Predicted rice 16.88 82.32 0.80
      预测为其他
      Predicted other object
      9.94 0 90.06
      AdaBoost 预测为杂草 Predicted weed 82.93 11.29 5.28 0.411 1 90.25
      预测为水稻 Predicted rice 6.91 92.77 0.32
      预测为其他
      Predicted other object
      7.23 1.81 90.96
      下载: 导出CSV 
      | 显示表格

      SVM、KNN和AdaBoost模型对测试集的测试运行时间分别为0.500 4、2.209 2和0.411 1 s。AdaBoost在分类精度和识别效率上都优于其他2种模型。基于CNN试验的模型是深度学习框架TensorFlow的GitHub代码库下的源码,通过对卷积层、池化层以及全连接层做了一些修改(图6)以适应本试验的数据,模型对整个数据集的综合分类精度是92.41%。图8是CNN训练的Loss值与训练步数的关系图。

      图 8 卷积神经网络训练步数与Loss值之间的关系图
      图  8  卷积神经网络训练步数与Loss值之间的关系图
      Figure  8.  Relationship between train step and Loss value in convolutional neural network

      分别使用这4种训练生成的模型对测试集小样本进行分类,将小样本分类识别结果返回到相应的原始图像中进行标记,4种模型下水稻田杂草分布图与原图、标注图的比较如图9所示。

      图 9 基于4种算法生成的水稻田杂草分布图与原图、标注图的比较
      图  9  基于4种算法生成的水稻田杂草分布图与原图、标注图的比较
      Figure  9.  Comparisons of distribution maps of paddy weeds generated based on four algorithms with original image and annotated image

      由以上的试验结果效果图以及得到的分类精度可以得到,基于CNN对水稻杂草的分类效果要优于传统机器学习算法对水稻杂草的分类效果。机器学习算法及CNN均能够有效获取水稻田中杂草分布信息并生成水稻田间杂草分布图,有利于植保无人机对稻田中的杂草进行精准施药。

      本文使用无人机采集水稻杂草RGB可见光图像,将数据切割成像素尺寸为100×100的小网格图像,对数据集进行颜色特征提取和降维后送入SVM、KNN和AdaBoost三种机器学习算法模型中进行分类。对比试验了3种机器学习方法和1种无需提取图像特征和降维的CNN分类方法。从分类的试验结果看,在3种机器学习算法中,不论是分类准确率还是分类效率,最优的分类器是AdaBoost,其综合识别精度为90.25%;在基于CNN的分类中,由于CNN结构可以自动挖掘数据的特征,简化人工提取环节,更具有兼容性和适用性,对不同的水稻杂草图像泛化能力更好,对水稻杂草图像的综合识别精度可以达到92.41%。试验结果还表明,针对无人机拍摄的遥感图像,机器学习算法及CNN能够有效识别出水稻和杂草,获取杂草的分布信息,生成水稻田间的杂草分布图,为后续植保无人机的精准施药提供依据。结合本文的研究和所得结果分析,本研究还存在以下待改进之处:1)本文使用的机器学习算法只提取图像的颜色特征作为模型训练的特征向量集进行训练,可以在后续研究中提取多个图像特征如纹理、形状等特征进行特征融合,结合机器学习算法并在此基础上改善算法模型,形成新算法以改善分类准确率;2)后续考虑采集多时期、多田地的水稻杂草图像,基于这些不同的水稻杂草图像改善模型,提高模型泛化能力;3)本文是进行水稻杂草的图像分类,切割成100像素×100像素小网格后,个别网格中避免不了水稻和杂草共存的情况,下一步可以考虑基于像素级别的分类,提高分类的精度。

    • 图  1   NeRF网络架构示意图

      $ \gamma $为映射函数,x为点的位置信息,d为视角方向,$ \sigma $为体素不透明度,256、128表示所在卷积层输入的图像尺寸。

      Figure  1.   Illustration of the NeRF network architecture

      $ \gamma $ is the mapping function, x is the position information of the point, and d is the perspective direction, $ \sigma $ is the voxel opacity, 256 and 128 indicate the size of image input in the located convolution layer.

      图  2   改进位置编码示意图

      Figure  2.   Encoding illustration of improved position

      图  3   筛选前(A)、后(B)特征点匹配示意图

      Figure  3.   Matching illustration of unfiltered (A) and filtered (B) feature points

      图  4   图像位姿示意图

      图中的黑色四棱锥表示相机位姿,即相机拍摄方向。

      Figure  4.   Illustration of image pose

      The black quadrangular pyramid in the figure indicates the camera position, that is, the camera shooting direction.

      图  5   NeRF重建柑橘幼苗三维点云图

      Figure  5.   Citrus seedling 3D point cloud maps reconstructed by NeRF

      图  6   柑橘幼苗原图(A)、NeRF场景(B)和NeRF深度(C)对比

      Figure  6.   Comparison of citrus seedling (A), NeRF scene (B) and NeRF depth (C) images

      图  7   SFM-MVS(A)与NeRF(B)重建柑橘幼苗三维点云图对比

      Figure  7.   Comparison of citrus seedling 3D point cloud maps reconstructed by SFM-MVS (A) and NeRF (B)

      图  8   点云预处理示意图

      Figure  8.   Illustration of point cloud preprocessing

      图  9   柑橘幼苗三维表型参数人工实测值与提取值对比

      Figure  9.   Comparison of manually measured and extracted values for 3D phenotypic parameters of citrus seedlings

    • [1] 柴宏红, 邵科, 于超, 等. 基于三维点云的甜菜根表型参数提取与根型判别[J]. 农业工程学报, 2020, 36(10): 181-188. doi: 10.11975/j.issn.1002-6819.2020.10.022
      [2]

      PAULUS S, SCHUMANN H, KUHLMANN H, et al. High-precision laser scanning system for capturing 3D plant architecture and analysing growth of cereal plants[J]. Biosystems Engineering, 2014, 121: 1-11.

      [3]

      LADANIYA M S, MARATHE R A, DAS A K, et al. High density planting studies in acid lime (Citrus aurantifolia Swingle)[J]. Scientia Horticulturae, 2020, 261: 108935. doi: 10.1016/j.scienta.2019.108935

      [4]

      CONTI G, XOCONOSTLE-CÁZARES B, MARCELINO-PÉREZ G, et al. Citrus genetic transformation: An overview of the current strategies and insights on the new emerging technologies[J]. Frontiers in Plant Science, 2021, 12: 768197. doi: 10.3389/fpls.2021.768197

      [5]

      BISI R B, ALBRECHT U, BOWMAN K D. Seed and seedling nursery characteristics for 10 USDA Citrus rootstocks[J]. HortScience, 2020, 55(4): 528-532. doi: 10.21273/HORTSCI14598-19

      [6]

      SHAKOOR N, LEE S, MOCKLER T C. High throughput phenotyping to accelerate crop breeding and monitoring of diseases in the field[J]. Current Opinion in Plant Biology, 2017, 38: 184-192. doi: 10.1016/j.pbi.2017.05.006

      [7] 黄成龙, 李曜辰, 骆树康, 等. 基于结构光三维点云的棉花幼苗叶片性状解析方法[J]. 农业机械学报, 2019, 50(8): 243-248.
      [8] 何海清, 严椰丽, 凌梦云, 等. 结合三维密集点云的无人机影像大豆覆盖度提取[J]. 农业工程学报, 2022, 38(2): 201-209. doi: 10.11975/j.issn.1002-6819.2022.02.023
      [9]

      MA H, ZHU X, JI J, et al. Rapid estimation of apple phenotypic parameters based on 3D reconstruction[J]. International Journal of Agricultural and Biological Engineering, 2021, 14(5): 180-188. doi: 10.25165/j.ijabe.20211405.6258

      [10]

      CHAWADE A, VAN HAM J, BLOQUIST H, et al. High-throughput field-phenotyping tools for plant breeding and precision agriculture[J]. Agronomy, 2019, 9(5): 258. doi: 10.3390/agronomy9050258

      [11] 杨会君, 王瑞萍, 王增莹, 等. 基于多视角图像的作物果实三维表型重建[J]. 南京师范大学学报(自然科学版), 2021, 44(2): 92-103.
      [12] 梁秀英, 周风燃, 陈欢, 等. 基于运动恢复结构的玉米植株三维重建与性状提取[J]. 农业机械学报, 2020, 51(6): 209-219. doi: 10.6041/j.issn.1000-1298.2020.06.022
      [13]

      HE W, YE Z, LI M, et al. Extraction of soybean plant trait parameters based on SfM-MVS algorithm combined with GRNN[J]. Frontiers in Plant Science, 2023, 14: 1181322. doi: 10.3389/fpls.2023.1181322

      [14]

      LEI S, LIU L, XIE Y, et al. 3D visualization technology for rubber tree forests based on a terrestrial photogrammetry system[J]. Frontiers in Forests and Global Change, 2023, 6: 1206450. doi: 10.3389/ffgc.2023.1206450

      [15]

      MILDENHALL B, SRINIVASAN P P, TANCIK M, et al. NeRF: Representing scenes as neural radiance fields for view synthesis[J]. Communications of the ACM, 2021, 65(1): 99-106.

      [16] 宫金良, 刘镔霄, 魏鹏, 等. 基于相机位姿恢复与神经辐射场理论的果树三维重建方法[J]. 农业工程学报, 2023, 39(22): 157-165. doi: 10.11975/j.issn.1002-6819.202307275
      [17]

      KANG H, HU K, YING W, et al. High-fidelity 3d reconstruction of plants using neural radiance field[J]. Computer and Electronics in Agriculture, 2024, 220: 108848. doi: 10.1016/j.compag.2024.108848

      [18]

      IGLHAUT J, CABO C, PULITI S, et al. Structure from motion photogrammetry in forestry: A review[J]. Current Forestry Reports, 2019, 5(3): 155-168. doi: 10.1007/s40725-019-00094-3

      [19]

      ZHANG Z. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 22(11): 1330-1334.

      [20]

      ZHAO C, FAN C, ZHAO Z. A binocular camera calibration method based on circle detection[J]. Heliyon, 2024, 10(19): e38347. doi: 10.1016/j.heliyon.2024.e38347.

      [21] 彭程, 苗艳龙, 汪刘洋, 等. 基于三维点云的田间香蕉吸芽形态参数获取[J]. 农业工程学报, 2022, 38(S1): 193-200. doi: 10.11975/j.issn.1002-6819.2022.z.022
    • 期刊类型引用(8)

      1. 夏晶晶. 基于KNN神经网络的无人机作业操控系统研究. 农机化研究. 2024(07): 183-187 . 百度学术
      2. 文飞,莫嘉维,胡宇琦,兰玉彬,陈欣,陆健强,邓小玲. 基于卷积神经网络遥感图像的荔枝花期长势评估. 华南农业大学学报. 2023(01): 123-133 . 本站查看
      3. 曲福恒,李婉婷,杨勇,刘红玉,郝忠林. 基于图像增强和注意力机制的作物杂草识别. 计算机工程与设计. 2023(03): 815-821 . 百度学术
      4. 陈裕锋,冯佩雯,凌金生,张书琪,余振鹏,熊琳琳,刘洪,谢家兴. 基于无人机多光谱图像的水稻品种鉴定. 南京农业大学学报. 2023(05): 995-1003 . 百度学术
      5. 张楠楠,张晓,白铁成,袁新涛,马瑞,李莉. 基于无人机可见光影像的新疆棉田田间尺度地物识别. 农业机械学报. 2023(S2): 199-205 . 百度学术
      6. 曹英丽,赵雨薇,杨璐璐,李静,秦列列. 基于改进DeepLabv3+的水稻田间杂草识别方法. 农业机械学报. 2023(12): 242-252 . 百度学术
      7. 焦晋康,胡炼,陈高隆,涂团鹏,王志敏,臧英. 水田行间除草装置设计与试验. 农业工程学报. 2023(24): 11-22 . 百度学术
      8. 卢征. 国土资源数据整合下无人机低空遥感监测系统设计. 电子设计工程. 2022(13): 78-81+86 . 百度学术

      其他类型引用(5)

    图(9)
    计量
    • 文章访问数:  104
    • HTML全文浏览量:  20
    • PDF下载量:  27
    • 被引次数: 13
    出版历程
    • 收稿日期:  2024-05-19
    • 网络出版日期:  2025-03-02
    • 发布日期:  2025-02-23
    • 刊出日期:  2025-05-09

    目录

    Corresponding author: ZHANG Yali, ylzhang@scau.edu.cn

    1. On this Site
    2. On Google Scholar
    3. On PubMed

    /

    返回文章
    返回