• 《中国科学引文数据库(CSCD)》来源期刊
  • 中国科技期刊引证报告(核心版)期刊
  • 《中文核心期刊要目总览》核心期刊
  • RCCSE中国核心学术期刊

基于YOLOv5-C的广佛手病虫害识别

骆润玫, 殷惠莉, 刘伟康, 胡凯, 廖飞, 刘泽乾, 曹亚芃, 李强, 王卫星

骆润玫, 殷惠莉, 刘伟康, 等. 基于YOLOv5-C的广佛手病虫害识别[J]. 华南农业大学学报, 2023, 44(1): 151-160. DOI: 10.7671/j.issn.1001-411X.202203012
引用本文: 骆润玫, 殷惠莉, 刘伟康, 等. 基于YOLOv5-C的广佛手病虫害识别[J]. 华南农业大学学报, 2023, 44(1): 151-160. DOI: 10.7671/j.issn.1001-411X.202203012
LUO Runmei, YIN Huili, LIU Weikang, et al. Identification of bergamot pests and diseases using YOLOv5-C algorithm[J]. Journal of South China Agricultural University, 2023, 44(1): 151-160. DOI: 10.7671/j.issn.1001-411X.202203012
Citation: LUO Runmei, YIN Huili, LIU Weikang, et al. Identification of bergamot pests and diseases using YOLOv5-C algorithm[J]. Journal of South China Agricultural University, 2023, 44(1): 151-160. DOI: 10.7671/j.issn.1001-411X.202203012

基于YOLOv5-C的广佛手病虫害识别

基金项目: 2021年省级乡村振兴战略专项省级组织实施项目(粤财农〔2021〕37 号)
详细信息
    作者简介:

    骆润玫,硕士研究生,主要从事深度学习在农业工程领域应用研究,E-mail: 1039273787@qq.com

    通讯作者:

    王卫星,教授,博士,主要从事智慧农业与农业物联网研究,E-mail: weixing@scau.edu.cn

  • 中图分类号: S435.67;TP391

Identification of bergamot pests and diseases using YOLOv5-C algorithm

  • 摘要:
    目的 

    为实现复杂背景下广佛手发病早期的病虫害快速精准识别,提出一种基于YOLOv5-C的广佛手病虫害识别方法。

    方法 

    使用YOLOv5s网络模型作为基础网络,通过引入所提出的多尺度特征融合模块,提高网络模型的特征提取与特征融合能力,均衡提高每一类广佛手病虫害的识别准确率;使用注意力机制模块提高网络模型对病虫害目标特征信息的关注度,弱化复杂背景的干扰信息,提高网络模型的识别准确率;利用改进的C3-SC模块替换PANet结构中的C3模块,在不影响网络模型识别性能的条件下减少网络模型的参数。

    结果 

    基于YOLOv5-C的复杂背景下的广佛手病虫害识别,F1分数为90.95%,平均精度均值为93.06%,网络模型大小为14.1 Mb,在GPU上每张图像平均检测时间为0.01 s。与基础网络YOLOv5s相比,平均精度均值提高了2.45个百分点,7个类别识别的平均准确率的标准差由7.14减少为3.13,变异系数由7.88%减少为3.36%。平均精度均值比RetinaNet、SSD、Efficientdet和YOLOv4模型分别高22.30、20.65、4.84和2.36个百分点。

    结论 

    该方法能快速准确地识别复杂背景下广佛手病虫害目标,可为广佛手种植产业的智能化管理提供参考。

    Abstract:
    Objective 

    In order to achieve rapid and accurate identification of pests and diseases in the early disease stage of bergamot in complex background, we proposes a YOLOv5-C-based method for the identification of bergamot pests and diseases.

    Method 

    The YOLOv5s network model was used as the base network. The multi-scale feature fusion module was proposed and introduced to improve the feature extraction and feature fusion capability of the network model, and to improve the recognition accuracies of different bergamot pests and diseases in a balanced manner. The attention mechanism module was used to upgrade the attention degree of the network model to the information of target features of pests and diseases, weaken the interference information of complex background, and raise the recognition accuracy of the network model. An improved C3-SC module was used to replace the C3 module in the PANet structure to decrease the number of parameters in the network model without lowering the network model recognition performance.

    Result 

    F1 score of 90.95% and mean average precision of 93.06% were achieved when identifying the bergamot pests and diseases under a complex background using the YOLOv5-C method. The size of network model was 14.1 Mb, and the average detection time was 0.01 s per image on the GPU. Comparing with the original YOLOv5s, the mean accuracy of YOLOv5-C increased by 2.45 percentage point, the standard deviation of the average precision for seven categories was reduced from 7.14 to 3.13, and the coefficient of variation decreased from 7.88% to 3.36%. Moreover, the mean average accuracy was 22.30, 20.65, 4.84 and 2.36 percentage point higher than those of RetinaNet, SSD, Efficientdet and YOLOv4, respectively.

    Conclusion 

    The method can quickly and accurately identify bergamot pests and diseases under complex background, and provide a reference for intelligent management of bergamot cultivation industry.

  • 如今水产养殖规模持续扩大,养殖过程中用工成本高、劳动力短缺等问题日渐尖锐,养殖设备机械化、自动化的要求越来越高,水产养殖业正逐步向智能化、现代化和协同化的方向转变[1]。河蟹等“惰性”生物在养殖过程中,传统的人工遍历式饵料投喂方式,常常存在局部点投喂不足的问题。为解决这一问题,同时提高河蟹养殖自动化程度,采用无人艇对多目标点进行全局路径规划自动投饵,实现精准作业的同时避免水体富营养化,提高投料效率和养殖收益。

    路径规划技术借助搭载丰富的传感器,获取实时位姿信息以及作业环境,并在预设环境模型下利用合适的寻优算法规划出最优路径轨迹[2]。学者们针对静态问题的全局规划研究包含A*算法[3-5]、蚁群算法(Ant colony optimization, ACO)[6-8]和粒子群算法(Particle swarm optimization, PSO)[9-11]等。Votion等[12]在A*算法的基础上增加惩罚激励机制以此来提高多目标路径轨迹的安全性与多样性。Chen等[13]提出一种基于混沌的混合粒子群优化蚁群路径规划算法,利用切比雪夫混沌序列生成随机因子更新公式,优化调整粒子群算法参数,引入全局异步特性和精英策略,改进信息素更新方式,算法搜索速度快,但缺少自适应调整参数。杨立炜等[14]提出初始信息素阶梯分配原则和运用动态切点调整法平滑路径,解决了目标单一无法应对复杂多变的实际问题。陈劲峰等[15]通过设置节点之间的属性关系,减小搜索范围,缩小运算时间,改进一种自适应不同复杂环境的蚁群算法。董翔宇等[16]将蚁群算法的单向搜索变为双向搜索,把人工势场思想引入到启发因子中,对转移概率做了改进,证明了改进算法的优越性。张天瑞等[17]对于路径转角过大、收敛慢的问题,把转角启发函数加到节点转移概率中,提高路径选择的适应性,降低局部最小值概率,并利用遗传交叉环节进行二次优化,保证了寻优速度和路径质量。何少佳等[18]对于存在的搜寻效率低和路径不平衡等问题,利用粒子群算法的全局搜寻优点,快速得到初始信息素,方便下一步蚁群算法的路径规划,过程中对每个点进行遍历,对可行路径进行惯性优化。简而言之,启发式算法具有各自相对较好的优点,但也存在其不足。学者们通过对算法参数因子的改进、目标函数的调整和融合其他算法,提高算法的先进性与适应性。

    经典规划算法易实现,但搜索效果一般;启发式算法寻优能力强,但存在其弊端。因此,为解决单一算法寻优不足,提出一种多目标粒子群−蚁群(PSO-ACO)的无人艇路径规划算法。首先建立静态水深栅格环境模型和目标函数,利用改进粒子群算法搜索路径调整蚁群算法的初始信息素,然后采用改进蚁群算法进行多目标点全局路径寻优,最后在不同环境投饵策略下仿真,验证算法的优良性。

    可视图空间法、拓扑法、栅格法和Voronoi图法等几何法是当下建立环境模型的常用办法[19]。在全局路径规划下的环境建模过程中,选用恰当的建模方法有利于改善路径算法的精度与效率[20]

    最先由学者Howden[21]提出的栅格法应用得较为普遍且易于实现,其思想是将环境信息划分成一个个单元格,并对其每个单元格进行序号表示,亦可用坐标点表示。序号与坐标点能互相代替。栅格法的2种表示,如图1所示。

    图  1  栅格法的2种表示
    M表示栅格横向单位长度;$N$表示栅格纵向单位长度;白色表示自由网格;黑色表示障碍栅格
    Figure  1.  Two representations of grid method
    M is the horizontal unit length of the grid; $N$ is the vertical unit length of the grid; White represents free grid; black represents obstacle grid

    栅格划分越多,环境描述越精确,但信息计算存储量也越大;反之,环境描述越模糊,计算速度越快。所以,栅格的长度选取尤为重要,一般取决于环境信息与运动对象的大小。矩阵表示为0(白色自由栅格)和1(黑色障碍栅格)。假设平面存在一点 $ \left( {{x_i},{y_i}} \right) $ ,则其对应栅格点 $ \left( {{x_a},{y_a}} \right) $ 在直角坐标可表示为公式(1):

    $$\left\{ \begin{array}{l} {{ x}}_{a}=\dfrac{{x}_{i}-{x}_{0}}{M}+1\\ {{ y}}_{a}=\dfrac{{y}_{i}-{y}_{0}}{N}+1\end{array} \right. ,$$ (1)

    M $N$ 分别表示每个栅格横向和纵向的单位长度。

    螃蟹养殖周期内,养殖规律和季节变化影响蟹塘水位深度。在春季养殖初期,为了促进水生物的生长,保证充足的日照和提高水温,水深一般控制在0.5~0.8 m;夏季光照充足,为保证螃蟹生长环境的舒适度,水深则保持在1.0~1.5 m。水位的高低影响航行的路径轨迹,因此引入 $ {x_a} $ $ {y_a} $ 表征栅格位置信息; $H$ 表示栅格的静态水深。通过采用样条函数的计算方法,预估每个栅格静态水深,建立静态水深栅格模型[22]

    $$ \left\{ \begin{array}{l} H\left( {{x_a},{y_a}} \right) = {a_0} + {a_1}{x_a} + {a_2}{y_a} + \displaystyle\sum\limits_N^{k = 1} {R\left( D \right)} \\ R\left( {{D_k}} \right) = \dfrac{{{\lambda _k}}}{{2{\text{π}} }}\Bigg\{ \dfrac{{D_k^2}}{4}\left[ {\ln \left( {\dfrac{{{D_k}}}{{2\tau }}} \right) + c - 1} \right] + \\ \quad\quad {\tau ^2}\left[ {{K_{\rm{O}}}\left( {\dfrac{{{D_k}}}{\tau }} \right) + c + \ln \left( {\dfrac{{{D_{{k}}}}}{{2{\text{π}} }}} \right)} \right] \Bigg\} \end{array} \right.,$$ (2)

    式中, $ H\left( {{x_a},{y_a}} \right) $ 表示 $a$ 点栅格的水位; $ {a_i} $ $ {\lambda _k} $ 为通过求解线性方程组获取的系数; $ R({D_k}) $ 为规则样条插值法的函数; ${D_k}$ 表示 $a$ 点到第 $k$ 个输入点的距离;c=0.5172175; $K_{\rm{O}}$ 表示修正贝塞尔函数;τ表示权重系数。

    在蟹塘栅格模型中,对其不规则形状进行膨化处理,使占满整个单元栅格。蟹塘中央水位越高,栅格颜色越深。建立适合的环境模型,对无人艇的全局路径规划有着重要意义。蟹塘环境优化模型如图2所示。

    图  2  蟹塘环境优化模型示意图
    图2b中,蓝色单元的深浅度表征动态水深变化,灰色单元表征投料装置、增氧泵等设备,即障碍物区
    Figure  2.  Schematic diagram of crab pond environment optimization model
    In Fig. 2b,the color depth of blue cells characterizes dynamic water depth changes,and the gray units represent the obstacle area including feeding device, oxygen pump and other equipment

    对于空间所有存在的可行解,必须建立一个目标函数来评估路径的好坏。本文结合无人艇的实际作业要求,考虑路径长度、平滑性和安全性因素,建立目标评估函数。

    路径长度(L)是每一段路径的长度总和。路径长度越小越好,经济性越高。其中, $ \left( {{x_i},{y_i}} \right) $ 是路径点 $ {d_i} $ 的坐标,每一段的路径长度 $ {L_i} $ 计算公式为:

    $$ {L_i} = \left| {{d_i}{d_{i + 1}}} \right| = \sqrt {{{\left( {{x_{i + 1}} - {x_i}} \right)}^2} + {{\left( {{y_{i + 1}} - {y_i}} \right)}^2}}, $$ (3)

    路径长度总和 $L$ 的计算公式为:

    $$ L = \displaystyle\sum \limits_{i = 0}^{{n}} {d_i}。 $$ (4)

    为保证规划期望轨迹应尽可能保证平滑,减少不必要的拐角。选取轨迹上的3个点。路径平滑性(艏向角的变化)( $R$ )计算公式为:

    $$ R = \displaystyle\sum \limits_{i = 1}^{{n}} \cos \dfrac{{\overrightarrow {{R_{i - 1}}{R_i}} \cdot \overrightarrow {{R_i}{R_{i + 1}}} }}{{\left| {{R_{i - 1}}{R_i}} \right|\left| {{R_i}{R_{i + 1}}} \right|}}, $$ (5)

    式中, $ \overrightarrow {{R_{i - 1}}{R_i}} $ 表示点 $ {R_{i - 1}} $ 到点 $ {R_i} $ 的向量, $ \overrightarrow {{R_i}{R_{i + 1}}} $ 表示路径点 $ {R_i} $ 到点 $ {R_{i + 1}} $ 的向量。

    为满足无人艇到障碍物的最小距离( $ {S_i} $ )大于实际船体尺寸, $ {S_i} $ 的计算方法为:

    $$ {S_i} = \min \left\{ {{L_{{S_t}{S_1}}}, \cdots ,{L_{{S_t}{S_i}}}} \right\}, $$ (6)

    式中, $ {L_{{S_t}{S_i}}} $ 表示无人艇到第 $i$ 个障碍物的距离。

    水面无人艇的路径规划实质上就是满足在一定约束条件下的最优化问题,规划算法多需要考虑环境的复杂性、无人艇自身的约束性以及优化指标的多样性。针对无人艇路径规划算法收敛慢、精度低的问题,对粒子群算法和蚁群算法的参数因子优化改进,提出一种多目标PSO-ACO的无人艇路径规划融合算法。

    本文首先利用改进的粒子群算法对路径进行初始全局规划,根据粒子群算法求得的最优解,调整蚁群算法的初始信息素分布,提高算法的搜索效率;同时蚁群算法具有较好的反馈机制与搜索精度,利用改进蚁群算法进行多目标的全局路径规划。PSO-ACO融合算法流程如图3所示。

    图  3  PSO-ACO融合算法流程
    Figure  3.  PSO-ACO hybrid algorithm flow chart

    1995年,Eberhart等[23]通过对自然界中鸟群觅食活动行为的思考,率先提出了粒子群的群智能算法。粒子群算法参数流程简单,易于实现。速度与位置代表了粒子的全部特征,其中,速度表征粒子的运动速率,位置表征粒子的方向变化。粒子在空间解运动中,不断地迭代更新自己的速度与位置,具体如式(7)所示:

    $$ \left\{ \begin{gathered} {\boldsymbol{v}}_j^{{{k}} + 1} = \omega {\boldsymbol{v}}_j^k + {c_1}{r_1}\left( {{p_{{\text{pBest}}}} - {\boldsymbol{x}}_j^k} \right) + {c_2}{r_2}\left( {{p_{{\text{gBest}}}} - {\boldsymbol{x}}_j^k} \right) \\ {\boldsymbol{x}}_{{j}}^{k + 1} = {\boldsymbol{x}}_{{j}}^k + {\boldsymbol{v}}_{{j}}^{k + 1} \\ \end{gathered} \right. ,$$ (7)

    式中,惯性权重 $ (\omega )$ 影响着算法的寻优效率; $ {\boldsymbol{v}}_j^{{k}} $ 为粒子 $ j $ $ k $ 次迭代的速度矢量; $ {c_1} $ 为个体学习因子; $ {p_{{\rm{pBest}}}} $ 为最优个体极值; $ {c_2} $ 是群体学习因子; $ {p_{{\rm{gBest}}}} $ 为群体最优极值; $ {\boldsymbol{x}}_j^k $ 为粒子 $ j $ $ k $ 次迭代的位置矢量; $ {r_1} $ $ {r_2} $ 是在 $ [0,1] $ 中分别随机取1个值。粒子群算法全局寻优好,但算法早熟收敛现象严重。惯性权重和学习因子的取值影响着算法搜索的精度,因此需对算法参数做适当的改进。

    惯性权重的取值影响着算法的寻优性能。 $ \omega $ 过大时全局搜索影响较大,搜索精度较低;反之, $ \omega $ 较小时局部搜索能力较强,容易陷入局部最优。 $ \omega $ 的调整多采用线性、非线性和自适应调整3种策略。为保证粒子前期搜索效率高,文献[24]采用余弦函数调整惯性权重系数的方法,并仿真对比分析了多种函数,得出凹函数优于线性函数优于凸函数,改善了迭代后期的不足。

    针对粒子搜索速率慢和迭代过程易陷入局部最优的问题,本文提出采用非线性自适应调整的策略,选用非线性与自适应相结合策略,对ω进行调整。在正切函数调整ω的算法中,引入迭代系数因子( $ \sigma $ ),ω取值随迭代次数的实时变化相应调整。正切函数图像随时间呈现非线性递增的趋势,起初其递增速率较慢,保证ω取较大值,便于粒子搜索全局最优解;随着迭代次数的进行,正切函数随 $ \sigma $ 增大而增大,使得ω取值较小,同时函数变化速率较为平缓,有利于稳定的寻优。第 $k$ 次迭代 $ {\omega _{{k}}} $ 表达式为:

    $$ {\omega _{{k}}} = {\omega _{\text{s}}} - \left( {{\omega _{\text{s}}} - {\omega _{\text{e}}}} \right)\tan \sigma, $$ (8)

    式中, $ {\omega _{\text{s}}} $ 为惯性权重最初(大)值, $ {\omega _{\text{e}}} $ 为惯性权重最终(小)值,迭代系数因子 $ \sigma = k{\text{/}}{k_{\max }} $ $ {k_{\max }} $ 是最大迭代次数。

    在标准粒子群算法中,学习因子一般取 $ {c_1} = {c_2} = 2 $ 。初始搜索阶段,为了提高算法的全局搜索性能, $ {c_1} $ 尽可能取较大值, $ {c_2} $ 取较小值;后期迭代过程中,提高群体学习因子的影响,提高算法的收敛精度。在满足 $ {c_1} + {c_2} = 4 $ 的情况下,文献[25]提出2种区间变化。从算法的平均适应度和整体寻优效果考虑,得出 $ {c_1} $ 落在区间[2.25,3]和 $ {c_2} $ 落在[1,1.75]的时候,算法的整体寻优效果较佳。本文针对学习因子对算法性能的影响,提出一种非线性自适应变化的方法,提高异步学习因子的适应性,实时计算出异步学习因子的具体值。动态调整异步学习因子,提高算法粒子的全局搜索效率和后期的寻优精度,如公式(9)所示:

    $$ \left\{ \begin{gathered} {c_1} = 3 - 0.75\tan \sigma \\ {c_2} = 1 + 0.75\tan \sigma \end{gathered} \right.。 $$ (9)

    在实际生活中,蚂蚁寻找食物会在经过的途中,留下自身的位置信息作为标记,每经过一次路径点就会累积,并将累积的信息反馈给其他蚂蚁。在观察蚂蚁觅食行为活动中,Dorigo[26]得到启示并率先提出蚁群算法。ACO算法具有全局搜索范围广,精度高等优点。路径留下的信息素密度决定了节点到节点之间的转移状态,状态转移概率 $ p_{ij}^k(t) $ 的计算公式为:

    $$ p_{ij}^k(t) = \left\{ \begin{array}{l} \dfrac{{\tau _{ij}^\alpha (t)\eta _{ij}^\beta (t)}}{{ \displaystyle\sum \limits_{s \in {\rm{allowe}}{{\rm{d}}_k}} \tau _{is}^\alpha (t)\eta _{is}^\beta (t)}},j \in {\rm{allowe}}{{\rm{d}}_k} \\ 0,{\rm{otherwise}} \end{array} \right.,$$ (10)

    式中,信息启发式因子 $ (\alpha) $ 代表路径中累积信息素的相对重要程度;期望启发式因子 $ (\beta) $ 反映节点间可见度的相对重要程度, $ {\rm{allowe}}{{\rm{d}}_k} $ 表示蚂蚁 $ k $ 下一个可允许选择的所有节点, $ \tau _{ij}^{}(t) $ 表示 $t$ 时刻位置 $i$ $j$ 的信息素, $ \eta _{ij}^{}(t) $ 是关于 $t$ 时刻 $i$ $j$ 的期望转移函数,其表达式如下:

    $$ {\eta _{ij}}(t) = \dfrac{1}{{{d_{ij}}}}, $$ (11)

    $i$ $j$ 之间的距离 $ {d_{ij}} $ 越短,则蚂蚁选择路径 $ij$ 的概率也就越大。当蚂蚁走过 $ n $ 个指定位置后,产生多条较高密度的信息素,干扰后续蚂蚁的选择,所以采取一定的策略对更新信息素是必要的。在 $ t + 1 $ 时刻路径信息素更新公式为:

    $$ {\tau _{ij}}(t + 1) = (1 - \rho ) {\tau _{ij}}(t) + \displaystyle\sum \limits_{k = 1}^{{m}} \Delta \tau _{ij}^k(t) ,$$ (12)

    式中, $ \rho $ 为挥发因子, $ \rho \in (0,1) $ $\displaystyle\sum \limits_{k = 1}^{{m}} \Delta \tau _{ij}^k(t)$ 表示所有蚂蚁遍历完路径点的信息素总和。蚁群算法寻优精度高,但存在初始信息素缺失、效率低的问题。信息素挥发因子和启发期望函数的调整影响着算法搜索的效率,因此需对算法参数做适当的优化,从而提高ACO算法寻优能力。

    初始信息素挥发因子要保证足够大,降低路径过程中的信息素密度,提高蚂蚁路径选择的多样性;后期迭代过程中,挥发因子随着迭代次数的增加而逐步减小,路径过程中的信息素密度逐渐增加。为了能够使蚁群算法全局寻优过程中,提高全局收敛速率和后期搜索精度,本文引入基本最小量,提出非线性地调整信息素挥发因子,提高算法搜索效率。信息素挥发因子的表达式为:

    $$ \rho = 0.2 + 0.6{{\rm{e}}^{\frac{{{i_{\max }} - i}}{{{i_{\max }}}}}} ,$$ (13)

    式中, $ {{{i}}_{\max }} $ 表示最大迭代次数, $ {{i}} $ 为当前迭代次数。

    为降低算法陷入局部最值的可能,本文引入A*算法的估价思想,利用节点之间的关系建立估价函数,改进启发期望函数 $ \eta _{ij}^{}(t) $ 。距离 $ {d_{i{{m}}}} $ 可以用节点 $ i $ 到节点 $ j $ 的距离 $ {d_{ij}} $ 和节点 $ j $ 的距离到目标点 $ {{m}} $ 的距离 $ {d_{{{jm}}}} $ 的权重来表示。欧几里得度量计算节点间距离,具体表达式如下:

    $$ {\eta _{ij}}(t) = \dfrac{1}{{\lambda {d_{ij}} + (1 - \lambda ){d_{j{{m}}}}}}。 $$ (14)

    为验证融合算法的优良性,在2.4GHz PC,i5-1135G7,16GB RAM操作系统上运行仿真软件Matlab R2018b。

    首先使用改进粒子群算法对多投喂点全局路径规划问题进行仿真求解。设定粒子数量1000,最大迭代次数50,投喂点位置数目14。标准粒子群算法 $\omega = 0.9$ ${c_1} = {c_2} = 2$ 。分别从平均运行时间、路径距离和迭代次数考虑算法的优良性,仿真结果如表1所示。

    表  1  2种粒子群算法仿真对比
    Table  1.  Simulation comparison of two algorithms
    算法 Algorithm 平均运行时间/s Average running time 平均路径距离/cm Average path distance 最优迭代次数 Optimal iteration times
    标准PSO Standard PSO 2.36 31.23 26
    改进PSO Improved PSO 1.68 30.88 21
    下载: 导出CSV 
    | 显示表格

    算法仿真图结果对比如图4图5所示。仿真结果表明:改进PSO算法的全局收敛速度更快,适应度值更小,全局路径长度更短,算法的效率较好。

    图  4  多投喂点的全局最优路径
    Figure  4.  Global optimal path of multiple feeding points
    图  5  对比PSO收敛曲线图
    Figure  5.  Comparison of PSO convergence diagram

    为提高算法结果的普遍性,对简单环境下单投喂点的无人艇全局路径规划问题进行了多次仿真。设置算法初始参数,栅格尺寸选用20×20,设定蚂蚁个数50,迭代次数50,单个投喂点数目为1。如表2所示,在简单环境单投喂点路径规划中,相比较于标准ACO与改进ACO,融合算法不具有路径长度的优势,但迭代次数和拐点数目均较低,整体轨迹效果较好。

    表  2  简单环境单投喂点的算法仿真结果对比
    Table  2.  Comparison of algorithm simulation results of single feeding point in simple environment
    算法 Algorithm 运行时间/s Running time 最短路径距离/cm Minimum path distance 最优迭代次数 Optimal iteration times 路径拐点数目 Number of path inflection points
    标准ACO Standard ACO 4.78 28.63 23 10
    改进ACO Improved ACO 3.68 28.04 21 6
    PSO-ACO 3.39 28.04 19 3
    下载: 导出CSV 
    | 显示表格

    图6图7分别表示路径算法轨迹对比图和算法收敛曲线对比图。仿真结果表明:相较于标准ACO算法,PSO-ACO融合算法轨迹的平滑性更佳,收敛速度快,路径长度较短。

    图  6  简单路径算法轨迹对比图
    灰色单元表示投料装置、增氧泵等设备,即障碍物区
    Figure  6.  Trajectory comparison of simple path algorithm
    The gray unit represents the feeding device, oxygen pump and other equipment, i.e. the obstacle area
    图  7  简单路径算法对比收敛曲线图
    Figure  7.  Comparison of convergence curve of simple path algorithm

    为了验证融合算法在复杂环境的适应性,对复杂环境下多投喂点的无人艇全局路径规划问题进行了仿真。栅格尺寸选用20×20,设定蚂蚁个数80,迭代次数200,投喂点数目为4。如表3所示,在复杂环境多投喂点路径规划中,融合算法各参数指标优势更加明显。

    表  3  复杂环境多投喂点的算法仿真结果对比
    Table  3.  Comparison of algorithm simulation results of multiple feeding points in complex environment
    算法 Algorithm 运行时间/s Running time 最短路径距离/cm Minimum path distance 最优迭代次数 Optimal iteration times 路径拐点数目 Number of path inflection
    标准ACO Standard ACO 106.73 74.12 264 36
    改进ACO Improved ACO 81.17 68.28 126 24
    PSO-ACO 72.58 66.87 98 20
    下载: 导出CSV 
    | 显示表格

    图8图9分别表示路径算法轨迹对比图和过程点收敛曲线图。融合算法路径平滑性远优于改进蚁群算法,且无危险碰撞。仿真结果显示:PSO-ACO融合算法的轨迹平滑性好,收敛速度快,适应度值更小,路径距离更短。

    图  8  复杂路径算法轨迹对比图
    灰色单元表示投料装置、增氧泵等设备,即障碍物区
    Figure  8.  Trajectory comparison of complex path algorithm
    The gray unit represents the feeding device, oxygen pump and other equipment, that is, the obstacle area
    图  9  复杂路径算法过程点收敛曲线图
    Figure  9.  Process point convergence curve of complex path algorithm

    鉴于河蟹养殖规律及季节环境等因素,蟹塘的水位会发生变化。水位在春季养殖初期最浅,因此只需考虑春季养殖初期水位与无人艇吃水深度的关系,当栅格的水深低于无人艇的吃水深度,则默认此栅格为浅滩区。设定某一区域栅格静态水深低于无人艇的吃水深度,并在复杂环境下对多投喂点进行全局规划。仿真结果如图10所示。融合算法不仅具有较优的规划能力,而且能够较好地规避障碍区与浅水区。

    图  10  静态水深下的全局规划
    灰色单元表示投料装置、增氧泵等设备,即障碍物区;褐色单元表示浅滩区;红色实线代表PSO-ACO融合算法
    Figure  10.  Global planning under static water depth
    The gray unit represents the feeding device, oxygen pump and other equipment, that is, the obstacle area; The brown unit represents the shoal area; The red solid line represents the PSO-ACO fusion algorithm

    针对河蟹养殖过程中,蟹塘水位环境变化以及无人艇路径规划算法收敛慢、精度低的问题,基于静态水深栅格环境模型,提出一种多目标PSO-ACO融合算法的无人艇路径规划算法。针对粒子群算法寻优精度低和蚁群算法寻优速度慢的问题,融合算法通过对自身参数的适应性调整,解决了单一算法寻优不足的弊端。在不同环境投饵策略下仿真表明,改进融合算法在对多目标路径寻优时,不仅环境适应性好,而且提高了寻优效率和精度。

  • 图  1   YOLOv5s网络模型结构

    Figure  1.   Network structure of YOLOv5s

    图  2   MSFFM的多尺度特征融合示意图

    Figure  2.   Schematic diagram of multi-scale feature fusion of MSFFM

    图  3   Bottleneck瓶颈模块(a)和C3模块(b)的结构示意图

    卷积单元Conv模块括号内的参数依次表示输入通道数、输出通道数、卷积核大小和步长

    Figure  3.   Structural diagram of the Bottleneck module (a) and C3 module (b)

    The number of input channels, output channels, the size of the convolution kernel and the step size are indicated by the parameters in parentheses of Conv module

    图  4   Bottleneck-S瓶颈模块(a)和C3-S模块(b)的结构示意图

    Figure  4.   Structural diagram of Bottleneck-S module (a) and C3-S module (b)

    图  5   C3-SC模块结构示意图

    Figure  5.   Structural diagram of C3-SC module

    图  6   不同天气情况下YOLOv5-C和YOLOv5s检测结果

    图中数据为置信度;图中红色框为网络模型的检测结果,黄色框为人工标注的被网络模型漏检或误检的目标

    Figure  6.   Detection results of YOLOv5-C and YOLOv5s under different weather conditions

    The data in figures represent confidence levels; The red box in the figure is the detection result of network model, the yellow box is the artificially labeled target that is missed or misdetected by the network model

    图  7   与枝干或光斑相似的病虫害目标的检测效果

    图中数据为置信度;图中红色框为网络模型的检测结果,黄色框为人工标注的被网络模型漏检或误检的目标

    Figure  7.   The detection effect of pests and diseases similar to branches or spots

    The data in figures represent confidence levels; The red box in the figure is the detection result of network model, the yellow box is the artificially labeled target that is missed or misdetected by the network model

    图  8   消融试验中各个类别识别的平均准确率

    Figure  8.   Average accuracy of each category in ablation experiments

    表  1   广佛手病虫害数据集基本信息

    Table  1   Basic information of bergamot pest and disease dataset

    类别 Category 原始图像 Original image 褐斑病病斑 Labeled brown spot 溃疡病病斑 Labeled canker 煤烟病病斑 Labeled dark mildew 附生绿球藻 Labeled chlorococcum 潜叶蛾 Leaf miner 玉带凤蝶 Papilio polytes 双钩巢粉虱 Mealworm
    训练集 Training set 4292 608 1150 1654 638 1463 1258 740
    验证集 Validation set 1076 145 272 438 155 348 301 200
    测试集 Test set 601 91 155 214 90 200 200 91
    合计 Total 5969 844 1577 2306 883 2011 1759 1031
    下载: 导出CSV

    表  2   YOLOv5-C网络模型结构参数1)

    Table  2   Structural parameters of YOLOv5-C network model

    序列号 Serial No. 当前层的输 入来源 Input source of current layer 网络层 Network layer 输入尺寸 Input size 通道数 No. of channels
    0 −1 Focus 640×640×3 32
    1 −1 Conv3×3 320×320×32 64
    2 −1 C3_1 160×160×64 64
    3 −1 Conv3×3 160×160×64 128
    4 −1 C3_3 80×80×128 128
    5 −1 Conv3×3 80×80×128 256
    6 −1 C3_3 40×40×256 256
    7 −1 Conv3×3 40×40×256 512
    8 −1 SPP 20×20×512 512
    9 −1 C3_1 20×20×512 512
    10 [−1, 6, 4] MSFFM 256
    11 −1 C3-SC 40×40×256 256
    12 9 Conv1×1 20×20×512 256
    13 −1 Upsample 20×20×256
    14 [−1, 6, 11] Concat
    15 −1 C3-SC 40×40×768 256
    16 −1 Conv1×1 40×40×256 128
    17 −1 Upsample 40×40×128
    18 [−1, 4, 11] Concat1
    19 −1 C3-SC 80×80×512 128
    20 −1 Conv3×3 80×80×128 128
    21 [−1, 16] Concat
    22 −1 C3-SC 40×40×256 256
    23 −1 Conv3×3 40×40×256 256
    24 [−1, 12] Concat
    25 −1 C3-SC 20×20×512 512
    26 [19, 22, 25] Detect
     1)序列号10为多尺度特征融合模块,序列号11、15、19、22、25为C3-SC模块,序列号18为多尺度维度拼接模块;C3_X表示C3模块中串联的瓶颈模块为X个  1) Serial number 10 is the proposed multi-scale feature fusion module, serial number 11, 15, 19, 22, 25 are the proposed C3-SC modules, serial number 18 is the multi-scale dimension module; C3_X represents the number of bottleneck modules in series of C3 module is X
    下载: 导出CSV

    表  3   各个模块消融试验

    Table  3   Ablation experiments for each module

    网络 模型 Model 准确 率/% Precision 召回 率/% Recall F1 分数/% F1 score 精度 均值/% Mean average precision 模型大 小/Mb Model size
    YOLOv5s 90.82 86.50 88.61 90.61 14.4
    YOLOv5s+MSFFM 92.31 86.43 89.27 91.93 15.8
    YOLOv5s+C3-S 92.62 86.41 89.41 91.20 12.7
    YOLOv5s+C3-SC 93.41 88.06 90.66 92.32 12.7
    YOLOv5-C 93.00 88.99 90.95 93.06 14.1
    下载: 导出CSV

    表  4   不同网络的检测结果对比

    Table  4   The detection results of different network

    网络模型 Network model 骨干网络 Backbone network 准确率/% Precision 召回率/% Recall F1分数/% F1 score 精度均值/% Mean average precision 模型大小/Mb Model size 检测时间/s Test time
    RetinaNet ResNet-50 89.13 63.49 74.16 70.76 139.4 0.037
    SSD VGG16 91.59 76.71 83.49 88.22 93.7 0.018
    Efficientdet-D1 EfficientNet 93.85 63.77 75.94 72.41 25.7 0.084
    YOLOv4 CSPDarknet53 90.55 87.28 88.88 90.70 244.5 0.042
    YOLOv4-mobilenet MobileNetV1 85.61 80.60 83.03 85.63 51.2 0.026
    YOLOV4-tiny CSPDarknet53-tiny 90.50 63.50 74.63 69.00 22.5 0.012
    YOLOv5s CSPDarknet53 90.82 86.50 88.61 90.61 14.4 0.010
    YOLOv5-C CSPDarknet53 93.00 88.99 90.95 93.06 14.1 0.010
    下载: 导出CSV
  • [1] 曹瑞, 郝二伟, 杜正彩, 等. 广佛手化学成分、药理作用的研究进展及质量标志物的预测分析[J/OL]. [2022-02-11]. https://kns.cnki.net/kcms/detail/21.1546.r.20220210.1726.076.html.
    [2] 张思荻, 杨海燕, 曾俊, 等. 佛手的研究进展[J]. 中华中医药杂志, 2018, 33(8): 3510-3514.
    [3] 翟肇裕, 曹益飞, 徐焕良, 等. 农作物病虫害识别关键技术研究综述[J]. 农业机械学报, 2021, 52(7): 1-18. doi: 10.6041/j.issn.1000-1298.2021.07.001
    [4]

    LI L, ZHANG S, WANG B. Plant disease detection and classification by deep learning: A review[J]. IEEE Access, 2021, 9: 56683-56698. doi: 10.1109/ACCESS.2021.3069646

    [5] 兰玉彬, 王天伟, 陈盛德, 等. 农业人工智能技术: 现代农业科技的翅膀[J]. 华南农业大学学报, 2020, 41(6): 1-13. doi: 10.7671/j.issn.1001-411X.202008045
    [6]

    YUAN Y, FANG S, CHEN L. Crop disease image classification based on transfer learning with DCNNs[C]// Pattern Recognition and Computer Vision. Cham: Springer, 2018: 457-468.

    [7]

    CHEN J, CHEN J, ZHANG D, et al. Using deep transfer learning for image-based plant disease identification[J]. Computers and Electronics in Agriculture, 2020, 173: 105393. doi: 10.1016/j.compag.2020.105393

    [8]

    LÜ M, ZHOU G, HE M, et al. Maize leaf disease identification based on feature enhancement and dms-robust alexnet[J]. IEEE Access, 2020, 8: 57952-57966. doi: 10.1109/ACCESS.2020.2982443

    [9] 陆健强, 林佳翰, 黄仲强, 等. 基于Mixup算法和卷积神经网络的柑橘黄龙病果实识别研究[J]. 华南农业大学学报, 2021, 42(3): 94-101. doi: 10.7671/j.issn.1001-411X.202008041
    [10]

    HASSAN S M, MAJI A K. Plant disease identification using a novel convolutional neural network[J]. IEEE Access, 2022, 10: 5390-5401. doi: 10.1109/ACCESS.2022.3141371

    [11]

    ZOU Z, SHI Z, GUO Y, et al. Object detection in 20 years: A survey[EB/OL]. 2019, arXiv: 1905.05055. https://arxiv.org/abs/1905.05055.

    [12]

    REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. Advances in Neural Information Processing Systems, 2015, 28: 91-99.

    [13]

    LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]//European Conference on Computer Vision. Cham: Springer, 2016: 21-37.

    [14]

    REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Las Vegas: IEEE, 2016: 779-788.

    [15]

    REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 7263-7271

    [16]

    REDMON J, FARHADI A. Yolov3: An incremental improvement[EB/OL]. 2018, arXiv: 1804.02767. http://arxiv.org/abs/1804.02767.

    [17]

    BOCHKOVSKIY A, WANG C, LIAO H M. Yolov4: Optimal speed and accuracy of object detection[EB/OL]. 2020, arXiv: 2004.10934. https://arxiv.org/abs/2004.10934.

    [18]

    ZHOU G, ZHANG W, CHEN A, et al. Rapid detection of rice disease based on FCM-KM and faster R-CNN fusion[J]. IEEE access, 2019, 7: 143190-143206. doi: 10.1109/ACCESS.2019.2943454

    [19]

    SUN J, YANG Y, HE X, et al. Northern maize leaf blight detection under complex field environment based on deep learning[J]. IEEE Access, 2020, 8: 33679-33688. doi: 10.1109/ACCESS.2020.2973658

    [20]

    LÜ Z, JIN H, ZHEN T, et al. Small object recognition algorithm of grain pests based on SSD feature fusion[J]. IEEE Access, 2021, 9: 43202-43213. doi: 10.1109/ACCESS.2021.3066510

    [21]

    MAMDOUH N, KHATTAB A. YOLO-based deep learning framework for olive fruit fly detection and counting[J]. IEEE Access, 2021, 9: 84252-84262. doi: 10.1109/ACCESS.2021.3088075

    [22] 张博, 张苗辉, 陈运忠. 基于空间金字塔池化和深度卷积神经网络的作物害虫识别[J]. 农业工程学报, 2019, 35(19): 209-215. doi: 10.11975/j.issn.1002-6819.2019.19.025
    [23] 胡嘉沛, 李震, 黄河清, 等. 采用改进YOLOv4-Tiny模型的柑橘木虱识别[J]. 农业工程学报, 2021, 37(17): 197-203. doi: 10.11975/j.issn.1002-6819.2021.17.022
    [24]

    IANDOLA F N, HAN S, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50× fewer parameters and <0.5 MB model size[EB/OL]. 2016, arXiv: 1602.07360. https://arxiv.org/abs/1602.07360.

    [25]

    SZEGEDY C, LIU W, JIA Y, et al. Going deeper with Convolutions[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. Boston: IEEE, 2015: 1-9.

    [26]

    LIN T, DOLLÁR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE, 2017: 2117-2125.

    [27]

    LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 8759-8768.

    [28]

    WANG C, LIAO H M, WU Y, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C/OL]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. IEEE Computer Society, 2020: 390-391.

    [29]

    HE K, ZHANG X, REN S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916. doi: 10.1109/TPAMI.2015.2389824

    [30]

    WOO S, PARK J, LEE J, et al. CBAM: Convolutional block attention module[C]//Proceedings of the European conference on computer vision (ECCV). Cham: Springer, 2018: 3-19.

  • 期刊类型引用(6)

    1. 张亚莉,莫振杰,田昊鑫,兰玉彬,王林琳. 基于改进APF-FMT~*的农业机器人路径规划算法. 华南农业大学学报. 2024(03): 408-415 . 本站查看
    2. 岳光,任琳,郭靖宇,潘玉田,雷欢,葛林. 基于神经网络算法的水陆两栖无人艇控制系统研究. 兵器装备工程学报. 2024(05): 231-238 . 百度学术
    3. 白晓兰,袁铮,周文全,张振朋. 移动机器人路径规划算法研究综述. 机械工程师. 2024(08): 24-28+33 . 百度学术
    4. 黄淼,郝真鸣,冉宁,戴少石,郝晋渊. 配电室巡检机器人多目标点路径规划算法. 电子测量技术. 2024(16): 49-57 . 百度学术
    5. 崔溦,吕鸿贤,李志竑,陈阳. 冰期渠道防结冰曝气装置运行方式多目标智能优化. 水资源与水工程学报. 2024(06): 131-138 . 百度学术
    6. 白晓兰,袁铮,周文全,张振朋. 混合遗传算法在机器人路径规划中的应用. 组合机床与自动化加工技术. 2023(11): 15-19 . 百度学术

    其他类型引用(9)

图(8)  /  表(4)
计量
  • 文章访问数:  616
  • HTML全文浏览量:  30
  • PDF下载量:  339
  • 被引次数: 15
出版历程
  • 收稿日期:  2022-03-05
  • 网络出版日期:  2023-05-17
  • 刊出日期:  2023-01-09

目录

/

返回文章
返回