摘要

背景

现代农业中基于无人机(UAV)的图像检索能够收集大量空间参考作物图像数据。然而,在大规模实验中,无人机图像在复杂的冠层结构中包含了大量的作物。特别是对于时间效应的观察,这使得在多幅图像上识别单个植物和提取相关信息变得非常复杂。

结果

在这项工作中,我们提出了一个基于可理解的计算机视觉方法的无人机作物图像自动时空识别和个性化的实际工作流程,简称为“编目”。我们在2个真实世界的数据集上评估工作流程。记录一个数据集用于观察尾孢属叶斑病&整个生长周期内甜菜的真菌病。另一个涉及花椰菜植物的收获预测。植物目录用于提取在多个时间点上看到的单个植物图像。这收集了一个大规模时空图像数据集,反过来可以应用于训练进一步的机器学习模型,包括各种数据层。

结论

该方法显著改进了农业无人机数据的分析和解释。通过与一些参考数据的验证,我们的方法显示出类似于更复杂的基于深度学习的识别技术的准确性。我们的工作流程能够自动化工厂编目和培训图像提取,特别是对于大型数据集。

关键点
  • 从地理参考图像到单个工厂图像时间序列的完整自动化工作流

  • 并行实现以实现快速处理

  • 支持快速现场调查和注释任务

  • 为各种机器学习任务生成训练数据集

  • 多维数据框架的基础

背景

无人机(UAV)的使用是现代精准农业的主要驱动力之一。无人机配备了摄像机和其他传感器,如激光雷达,可用于各种非侵入性现场分析和观察任务[1]. 使用机器学习和模式识别方法分析和解释结果数据有可能获得经济和生态效率,这就是计算智能越来越多地应用于农业环境的原因[2]. 与卫星遥感不同[4]无人机遥感为私人使用和个人应用提供了低成本解决方案。有许多可以想象的用例,如植物物种分割[5],多传感器设备分析[6–8]或自动工厂计数[9]. 其中,有几个任务是基于对单个植物的调查。与植物可能具有更远距离的研究案例相比,这对于种植密度较高的农田的实际农业应用来说是一个挑战。我们将利用具有成本效益的无人机成像技术,该技术能够在一个完整的生长季节拍摄多幅图像,并将这些信息结合起来,以时空方式定位植物。对实地植物进行编目和检测的原因和用例是多方面的。一方面,它可以准确地确定田间植物的数量。另一方面,它可以提取人们非常感兴趣的特征,例如植物之间的距离和植物密度。对现场每一株植物进行个性化和识别,并有机会在时间序列中再次检索单个植物,从而生成大量注释数据库。该数据框架的可用性使得能够为疾病严重性分析训练更健壮的机器学习模型,仅举一个可能的用例。

为了观察单个植物,需要确定植物在图像中的准确位置。目前,有两种费时费力的方法可以实现:(i)通过使用具有实时动态定位(RTK)的GPS接收机直接在现场对具有亚厘米精度的植物进行地理参考,或(ii)通过地理信息系统手动注释进行图像采集和正射校正。在拍摄时间序列图像时,这些图像的完美对齐需要使用众所周知的测量点,称为地面控制点(GCP)[10]. 如果GCP是正确的地理参考,那么它们不仅可以在本地坐标系中分配图像,还可以在全球坐标系(如WGS84)中分配图像。这样可以在不同位置和时间点的图像之间实现像素级的精确传输。因此,工厂的本地化仅在一个时间点是必要的。由于植物不会在空间中移动,因此确定的绝对坐标在每个时间点都保持相同。因此,在不同的时间点对植物进行简单的提取是可能的。如果在生长早期计算位置,则相邻植物的重叠不会影响这种方法的定位。如果没有可用的数据地理参考(例如,因为无法访问测量设备或GCP),另一种可能性是使用基于单个图像的植物位置检测来匹配图像。在进一步的步骤中,这些检测点可以相互注册。然而,在这种方法中,处理植物在发育后期的重叠是具有挑战性的。

一旦不同的时间点对齐,就可以为每个单独的工厂提取时间序列。时间序列允许分析植物生长,特别是评估植物特性及其随时间的发展。根据时间序列,可以确定每种植物随时间的个体发育。这种时空信息可以优化作物管理。另一个方面是检测胁迫因素和疾病发展,以及它如何随着时间的推移影响受影响植物的生长。

在这项工作中,我们介绍了一个完整的工作流程,用于对单个植物进行植物识别和个体化,进一步也称为“编目”。1总结了我们提出的工作流及其主要步骤。我们将根据实际数据评估工作流,并给出可能的用例建议。

:我们提议的植物编目和图像提取工作流程概述。对不同采集日期的多通道无人机图像进行植物-土壤分割。然后,自适应高斯模糊滤波通过峰值发现帮助更精确地定位植物位置。随后,按时间对峰值进行分组,进一步操作(如播种线检测)可得出植物目录。一旦该目录可用,就可以提取单个植物的图像时间序列数据。
图1

:我们提议的植物编目和图像提取工作流程概述。对不同采集日期的多通道无人机图像进行植物-土壤分割。然后,自适应高斯模糊滤波通过峰值发现帮助更精确地定位植物位置。随后,按时间对峰值进行分组,进一步操作(如播种线检测)可得出植物目录。一旦该目录可用,就可以提取单个植物的图像时间序列数据。

数据描述

为了证明我们的工作流程可以用于各种无人机图像数据,我们在两个不同使用背景的农业数据集上评估了我们的方法。然而,向其他数据集和用例的传输是可能的。一方面,在尾孢属采用叶斑病传播。由于这种疾病严重影响甜菜种植业的产量,已经用无人机和无人地面车辆进行了几项表型研究[1112]. 另一方面,使用数据集监测花椰菜的发育和收获时间。这些数据可用于提取表型特征,如花椰菜植株或其花头的直径或高度[813]. 此外,一般来说,植物病害研究是该工作流的一个很好的用例,因为它要求在许多生长阶段都有单独的植物信息[14–16]. 因此,研究植物的时空个体化至关重要。特别是对于大规模调查,需要尽可能自动化的方法。

这两个数据集面临的一些挑战是,例如,由于整个生长季节的不同数据采集时间以及相关的不同天气条件,暴露程度不同。杂草的出现既有积极影响,也有消极影响。一方面,它简化了注册等任务,因为杂草是静止的,因此可以作为标记。另一方面,杂草的生长会影响植物检测等任务,因为必须事先区分杂草和作物。另一个挑战是当植物太大以至于植物的冠层被关闭时。这使得不同植物实例的分离和在野外寻找独特点变得复杂,这通常是由于土壤和植物之间的对比。

甜菜数据集

甜菜数据集用于开发和评估我们的工作流步骤,其中包括随时间变化的多光谱无人机(UAV)图像。

2显示了试验场中地块的位置。它于2020年在德国哥廷根附近进行(5133N 9个53E) 在2020年5月7日至10月12日的整个生长季中,每周24天进行。在这些植物上,一种甜菜植物对尾孢属选择叶斑病(CLS)阿卢科1多样性。甜菜于2020年4月6日播种,行距48厘米,行内距18厘米,预计播种量约为每公顷110000株。

:2020年德国哥廷根Cercospora叶斑试验田概述。这19个标记区域对应于所分析的地块,并进行了不同的处理,如接种疾病和施用杀菌剂。测量在整个生长季节进行。
图2

:概述尾孢属德国哥廷根2020年叶斑试验田。这19个标记区域对应于所分析的地块,并进行了不同的处理,如接种疾病和施用杀菌剂。测量在整个生长季节进行。

为了进行航空数据采集,四翼直升机DJI Matrice 2102已使用。无人机在飞行过程中的位置由GPS和GLONASS确定,并由D-RTK 2移动站进行校正。2安装的摄像头是Micasense Altum公司多光谱照相机有6个波段:蓝色(中心475 nm,带宽32 nm)、绿色(中心560 nm,带宽27 nm)、红色(中心668 nm,带宽14 nm)、红边(中心717 nm,带宽12 nm)、近红外(中心842 nm,带宽57 nm)和长波热红外(8000至14000 nm),带下涌光传感器(DLS2)。地面分辨率设置为4 mm/px。侧面重叠和正面重叠设置为75%。无人机以0.5米/秒的速度在地面以上约14米的范围内飞行,分辨率为|${4}{\,\mathrm{mm}}\次{4}{\,\fathrm{mm}}$|每像素。

此外,在测试安排的角落和中间设置了GCP,用于地理参考意义上的多时间监测和纠正收集的数据。Agisoft Metashape Professional公司4软件已经被用于创建正交马赛克图像。QGIS(质量地理信息系统)5[17]用于划定和选择要分析的区域,得到19个等面积为172米的地块2每个。

本试验提出了3个水平:(i)用杀菌剂防治,(ii)接种杀菌剂,(iii)不接种杀菌剂。用CLS病甜菜气干叶片材料人工感染接种处理地块。

第一个图像集是在一个专注于检测CLS的实验场中生成的。CLS是由菜生尾孢萨克。是全球甜菜最重要的叶病之一。该实验的实际目的是能够利用光学和环境传感器的信息来监测疾病,从而开发出准确和早期检测的模型。然而,常见的模型受到植物之间的相互作用以及每个植物对环境的反应的影响。为了获得关于植物及其与病原体相互作用的更准确和地理参考信息,需要确定每个植物在整个生长季节的各个位置。

为了对我们的工作流程进行质量评估,一些字段由人类专家进行注释,最好是在早期阶段,在早期阶段可以通过标记每个可见植物的中心位置来区分植物。

花椰菜数据集

花椰菜数据集用于验证我们的工作流。我们使用GrowliFlower公司Kierdorf等人[18]. 它包括2020年7月28日至11月2日在德国波恩(5046编号657E) ●●●●。种植时,花椰菜的行内距离为50 cm,行间距离为60 cm。在整个生长季节中,每周对花椰菜地进行一次监测。与甜菜数据集一样,使用Agisoft Metashape Professional软件将菜花数据集的图像处理为正射影像。DJI Matrice 600的飞行高度2六角直升飞机的高度为10米,使用索尼A7 rIII RGB相机,我们获得的正射照片的地面分辨率约为|${1.5}\倍{1.5}{\,\mathrm{mm/px}}$|在整个现场分布了21个GCP,并使用RTK进行了测量。

获取数据集背后的想法是观察花椰菜植物的发育过程,并根据获取的时间序列开发模型,以预测例如田间每种植物的收获时间或反映植物的成熟状态。收获花椰菜非常费力,因此,在几天的时间里,田间工作人员走过田地,手工收割成熟的花椰菜头。在这个过程中,花椰菜花头的大小是决定收获的最关键的植物特性。地理参考监测试图帮助农民优化施肥和虫害控制,并以更经济的方式工作,因为田间工作人员已经提前知道要收获哪些植物,而无需单独检查。

植物提取工作流

在本节中,我们将详细描述整个植物提取工作流程。对于每个工作流程步骤,我们都会绘制甜菜数据集不同摘录的绘图,以便可视化结果。1可以阅读为工作流的流程图,其中箭头上的标题从上到下列出了步骤。

预处理

在有效应用工作流之前,某些数据集可能需要预处理步骤。首先,我们显然需要所谓正射影像形式的地理参考数据。这些是平面的、无畸变的表面图像。对于我们的数据集,我们使用软件Agisoft Metashape Professional从UAV图像生成它们,如上所述。其次,将正射图像裁剪到要由工作流程处理的区域是有益的,特别是对于稍后将讨论的播种线检测。最好清除任何异物或电车线路。异物可能具有与植物相似的颜色特性,并可能导致错误识别。此外,有轨电车可能会导致播种线距离不规则,从而导致滤波不准确。此外,裁剪会加速计算,因为工作流步骤需要处理的图像数据较少。

寻找单个植物

作为植物编目的第一步,确定每个采集图像的植物位置(即每个采集日期的每个地块)。为此,我们在土壤和植物之间进行分割。常用方法使用植被指数(VI)作为图像信息的预处理[19]. 有纯基于RGB的VI以及包括多光谱或高光谱信息的VI。由于甜菜数据集中的多光谱采集,与纯RGB图像相比,植物和土壤之间的对比度可能会增加。然而,我们的实验表明,对于我们的数据集,包括多光谱信息,并没有比使用纯RGB信息得到更好的结果。这证明我们的工作流程即使在超RGB成像不可行的情况下也表现良好。

不及物动词

使用光谱信息来压缩单通道图像中的信息是VIs的主要概念。例如,除了降低图像维度之外,引入虚拟仪器的目的是与标准RGB图像相比,增强土壤和植物之间的对比度。到目前为止,有大量不同VIs的出版物[2021]. 然而,它们都通过特定的计算规范来组合不同的频谱信道。此外,一些索引使用(经验性的)参数来针对不同的用例进一步优化它们。由于我们想证明我们的植物提取方法已经适用于纯RGB信息,所以我们坚持使用基于RGB的VI。在我们的实验中,绿叶指数(GLI)是两个效果良好的指数[22]
$$\开始{eqnarray*}GLI_i=\压裂{2G{_i}\,\,-\,\,\结束{eqnarray*}$$
以及归一化绿/红差值指数(NGRDI)[23]
$$\开始{eqnarray*}NGRDI_i=\压裂{G_i-R_i}{G_i+R_i}\。\结束{eqnarray*}$$
这些索引映射了红色的信息(R(右)),绿色(G公司)、和蓝色(B类)每个图像像素的通道间隔[-1,1]中的单个值。然而,如果有多光谱数据可用,可以使用优化土壤调整植被指数(OSAVI)[24],定义为
$$\开始{eqnarray*}OSAVI_i=\压裂{NIR_i-R_i}{NIR_ i+R_i+Y}\,\结束{eqnarray*}$$
哪里Y(Y)>0是一个经验参数。在这项工作中,我们使用Y(Y)=0.6。尽管在这个阶段没有必要使用多光谱VI,但它们可以在无人机图像数据中进一步区分植物和异物。显示了应用于从甜菜数据集获取的示例图像片段的上述VIs。值得注意的是,所有3个VI都能很好地处理阴影,但OSAVI在忽略异物方面稍好一些。
:用于区分植物和土壤的不同植被指数(VI)。显示RGB图像信息(左上角)和3个VI。可以为多光谱甜菜数据集计算优化土壤调整植被指数(OSAVI)作为多光谱指数(右上),以及RGB-only指数绿叶指数(GLI;左下)和归一化绿/红差异指数(NGRDI;右下)。使用多光谱信息,OSAVI比仅RGB指数更不容易受到现场异物的影响。
图3

:用于区分植物和土壤的不同植被指数(VI)。显示RGB图像信息(左上角)和3个VI。可以为多光谱甜菜数据集计算优化土壤调整植被指数(OSAVI)作为多光谱指数(右上),以及RGB-only指数绿叶指数(GLI;左下)和归一化绿/红差异指数(NGRDI;右下)。使用多光谱信息,OSAVI比仅RGB指数更不容易受到现场异物的影响。

请注意,当然,在这一点上,也可以想象其他在植物和土壤之间产生显著对比的VI。然而,我们仅限于RGB-only VI图像,以便在此处进行进一步的植物识别程序。他们被命名为|$\mathbf{V}(t)$|每个收购日期|$t\in\mathcal{t}$|在给定的收购日期集合中|$\mathcal{T}$|。单个像素值由命名v(v).

植物-土壤分割

在下一步中,必须将土壤与厂区区分开来。因此,我们将执行分段。

正如VI部分可能已经建议的那样,对于整个生长季节的图像序列,图像中的植物和土壤覆盖率之间的比率变化很大。因此,重要的是要保持每个图像的生长状态或植物大小。因此,一个方便的测量方法是覆盖率c(c)由定义
$$\开始{eqnarray*}c=\frac{1}{N_{text{px}}}\sum\limits_i^{N_}\text{px{}}}\chi_{lbrace v_{i}\ge\vartheta\rbrace}\结束{eqnarray*}$$
哪里v(v)是的VI值第个,共个N个二甲苯总像素和ϑ是预定义的阈值。χ{ · }是指示符函数,如果满足索引中给定的条件,则为1,否则为0。描述性地说,覆盖率只是高于阈值的像素的百分比。

作为阈值技术,我们使用了Otsu的方法[25]. 其主要思想是找到一个阈值,使前景和背景两类的类内方差最小。对于中等覆盖的田地,这种方法可以可靠地区分土壤和植物。然而,它在以下极端情况下也有弱点。对于覆盖非常稀疏的田地(⁠|$c\lt{1}{\%}$|)Otsu的方法通常会产生一个阈值,该阈值近似于VI值的最频繁值(即模式)。这是因为少量的“植物像素”只是在值分布中消失了,而值分布则具有单峰结构。在这些图像中,最常见的值是土壤水平;因此,我们将通过使用Otsu的阈值来获得很多噪声,并且将高估由所得到的分割掩模计算的覆盖率。通过将阈值设置为VI分布的第99个百分位,我们绕过了这个问题,这显然会导致精确的修正覆盖率|${1}{\%}$|⁠当覆盖率超过75%左右时,单株或播种系就无法正确区分。因此,我们不使用这些阶段进行分割。

由于这些限制,我们需要对覆盖率进行初步估计,以便对图像进行分类。对于本研究中考虑的2个VIs,我们研究了两个数据集的良好初始阈值。因此,我们将初始阈值设置为ϑ英语=0.2和ϑNGRDI公司分别为0。对于OSAVI,初始阈值将设置为ϑOSAVI公司= 0.25. 根据初步估算c(c),我们决定使用哪个阈值方法并计算每个图像的最终覆盖率。4总结了一些示范性领域在不同成长阶段的发现。

:不同生长阶段的植物-土壤分割。左边的图显示了标准化绿/红差值指数(NGRDI)图像。中间的直方图显示了像素值的分布和应用的分割阈值,如右图所示。在(A)中,估计覆盖率低于1%,因此第99个百分位值用作阈值。在(B)和(C)中描述的情况下,采用大津的方法。在大约75%的覆盖率之前,可以看到单株植物和播种线。超出该限制的图像(如(D))不会用于进一步分析。
图4

:不同生长阶段的植物-土壤分割。左边的图显示了标准化绿/红差值指数(NGRDI)图像。中间的直方图显示了像素值的分布和应用的分割阈值,如右图所示。在(A)中,估计覆盖率低于1%,因此第99个百分位值用作阈值。在(B)和(C)中描述的情况下,采用大津的方法。在大约75%的覆盖率之前,可以看到单株植物和播种线。超出该限制的图像(如(D))不用于进一步分析。

Excursus:生长函数

如果在一个完整的生长季节获得足够的图像,我们可以估计单个估计覆盖率之间的函数关系。根据经验并根据收购日期绘制,覆盖率遵循饱和指数函数,直到植物死亡或生病。从那时起,覆盖率呈指数下降。这些现象学考虑激发了增长函数f(t吨)定义为:
$$\开始{方程式}f(t)=\frac{g}{1+\exp{(-\lambda_g(t-tg)})}-\chi{\lbrace d\gt 0\rbrace}\frac}{1+/exp{。\结束{方程式}$$
(1)
基本上,我们将生长和死亡阶段近似为两个独立的S形函数。它们之间的区别在于完整的生长功能。增长(衰减)斜率常数λd日d日)以及相应的时间偏移t吨(t吨d日)被视为优化参数。通过区分阳性和非阳性病例d日如果染色阶段不可见,可以为优化过程提供忽略染色阶段的选项。目前为止t吨,使用自第一次采集以来的天数。5表明生长函数适用于3个不同处理的田块。
:生长函数曲线拟合。首次收购后的覆盖率估计值与天数的关系与增长函数(1)相匹配。三种类型的增长函数的形状不同。蓝色曲线显示接种的田地。成长期过后,疾病导致的死亡过程开始,并在最近的收购中饱和。如果是未经处理的田地(黄色曲线),则自然染色过程不饱和。在绿色曲线所示的杀菌剂处理区域中,没有可见的死亡阶段。因此,与前两种情况相比,拟合函数的第二个死亡项不存在。
图5

:生长函数曲线拟合。覆盖率估计值与首次收购后天数的关系符合增长函数(1). 三种类型的增长函数的形状不同。蓝色曲线显示接种的田地。成长期过后,疾病导致的死亡过程开始,并在最近的收购中饱和。如果是未经处理的田地(黄色曲线),则自然染色过程不饱和。在绿色曲线所示的杀菌剂处理区域中,没有可见的死亡阶段。因此,与前两种情况相比,拟合函数的第二个消亡项不存在。

滤波和寻峰

在计算分割模板时,可以通过应用滤波和峰值查找技术来查找单个植物。回顾一下,我们将分割遮罩(参见植物-土壤分割部分)表示为二值图像
$$\开始{eqnarray*}\mathbf{B}(t)=\Big\lbrace\chi_{\lbrace v_i\ge\vartheta(t)\rbrace}\Big\ rbrace_{i=0}^{N_{\text{px}}}\结束{eqnarray*}$$
通过应用Otsu或第99百分位阈值ϑ(t吨)对于每个VI图像像素v(v)和收购日期t吨.生成的二进制图像|$\mathbf{B}(t)$|然后可以用高斯滤波器进行模糊处理。数学上,图像|$\mathbf{B}(t)$|与二维高斯核卷积
$$\开始{eqnarray*}\数学{G}(x,y,t)=\frac{1}{2\pi\sigma^2(t)}\exp\left(-\frac}x^2+y^2}{2\\sigma^2(t)}\right)\结束{eqnarray*}$$
其中σ(t吨)是带宽参数。x个表示二维图像像素尺寸。注意这里的时间依赖性,因为根据植物的大小调整带宽是有意义的(即,根据我们的覆盖率估计),并为给定图像引入合理带宽的间隔[σ最小值, σ最大值]以图像像素为单位。
作为代理,给定的带宽边界应大致代表植物在开始生长阶段和最大生长阶段的图像中的大小。最后,我们得到了模糊的图像|$\mathbf{\tilde{B}}(t)$|通过二值图像的卷积(*)|$\mathbf{B}(t)$|使用高斯核矩阵|$\mathbf{G}(t)$|,因此
$$\开始{eqnarray*}\mathbf{\tilde{B}}(t)=\mathbf}B}(c)\ast\mathbf{G}(B)\。\结束{eqnarray*}$$

随后,使用一个简单的峰值查找器来提取植物中心。模糊的效果是植物作为模糊的准圆形物体可见。通过这种方式,峰值发现算法检测植物中心,而不是单个叶片。为了进一步改善这一峰值发现的结果,我们可以设置最小的峰值距离和/或强度,以避免对更大的植物或仍然可见的杂草进行双重检测。

然而,这种方法的结果在很大程度上取决于正确选择二进制阈值和高斯滤波器带宽的范围。为了使其更便于用户使用并适应新数据集,可以使用公制单位作为参数,并根据给定的地理空间信息将其转换为像素单位。因此,工作流用户可以认为真实的工厂大小与图像分辨率无关。σ的良好选择最小值和σ最大值分别包括幼苗和完全生长的植物的半径。

此外,这种方法通常在具有较低植物覆盖率的图像上表现得更好。对于较高的覆盖率,植物不再在空间上划分,这会导致错误测定或多重检测。如图所示4,单株植物很难区分|${75}{\%}$|覆盖率。因此,我们只对低覆盖率图像执行此方法。6显示了不同示例性生长阶段的植物检测结果。此外,这种方法还可以识别出不需要的杂草,或者并没有检测到每一株植物。然而,以下各节中的步骤通过一些进一步的过滤和重建方法将这些弱点降至最低。

:不同生长阶段的植物峰值。左边的图显示了不同田地不同生长阶段确定的分割遮罩。右侧显示了自适应带宽高斯模糊和峰值检测(红点)的结果。
图6

:不同生长阶段的植物峰值。左边的图显示了不同田地不同生长阶段确定的分割遮罩。右侧显示了自适应带宽高斯模糊和峰值检测(红点)的结果。

将植物分组

在查找单个植物一节中描述的步骤将生成每个有效(即覆盖率足够低)UAV图像的峰值位置作为像素坐标。通过使用可用的地理空间信息,光栅化像素可以转换为绝对GPS坐标。此外,我们应用通用横轴墨卡托坐标系将经纬度转换为公制刻度(例如厘米)。这将产生度量峰值位置
$$\开始{eqnarray*}\mathcal{P}(t)=\Big\lbrace\vec{x} _ i(t) \大\rbrace_{i=0}^{N_p(t)}\,\结束{eqnarray*}$$
哪里|美元\vec{x} _ i(t)$|第个峰值,以及N个第页(t吨)是具有采集日期的图像中检测到的峰值数量t吨。此外,我们定义|$\mathcal{T}$|作为所有收购日期的集合|$\mathcal{T}^\ast\subseteq\mathcal{T}$|作为执行峰值提取方法的所有采集日期的集合。本节的目标是以空间方式对这些独立的植物位置进行分组,以便在整个生长季节的所有图像中识别单个植物,即使它们可能未在每个图像中检测到。因此,必须对准图像序列,以校正无人机GPS传感器的潜在拼接误差或校准毛刺。此外,还可以使用固定的地理参考点来将图像相互对齐,因为可以使用花椰菜数据集中的图像。如果植物以特定的行结构播种——对于行作物来说,谷物要复杂得多——你可以进一步找到这些行并过滤“离线”杂草。以下详细说明了该程序。

对齐设备位置

为了避免混淆不同的工厂ID,公制坐标|$\mathcal{P}(t)$|每个收购日期t吨相互对齐。并非每个图像中都检测到每一棵植物。因此,可视化工厂位置的点云并不一致,但仍高度相关。此外,VI图像中可以观察到的杂草和其他物体也可以包括在|$\mathcal{P}(t)$|然而,我们可以假设这些错误检测到的对象在位置上也是静止的,因此有助于对齐。随后,将描述从检测到的峰值位置减少不需要的物体的方法。这一步的主要目标是避免最大的GPS校准误差。应用示例如图所示7以下描述了具体的处理步骤。此外,可以在补充材料.

:点云对齐。峰值位置应用程序的示例片段。颜色对按时间顺序排序的采集日期进行编码。由于校准程序以递增的覆盖率迭代各层,因此这不一定是校准顺序。阴影圆圈显示原始峰值位置数据,而十字表示对齐后的相同数据。数据已经进行了很好的预校准,因此只能观察到最小的改进。
图7

:点云对齐。峰值位置应用程序的示例片段。颜色对按时间顺序排序的采集日期进行编码。由于校准程序以递增的覆盖率迭代各层,因此这不一定是校准顺序。阴影圆圈显示原始峰值位置数据,而十字表示对齐后的相同数据。数据已经很好地进行了预校准,因此只能观察到最小的改进。

目前,|$\mathcal{P}(t)$|包含(绝对)公制坐标。然而,在接下来的步骤中,可以通过减去所有峰值位置的质心来方便地集中坐标。这将产生集中的坐标
$$\开始{eqnarray*}\数学{\bar{P}}(t)&=&\Big\lbrace\vec{x} i(_i)(t) -\vec{x}_{\text{mean}}\Big\rbrace_{i=0}^{N_p(t)}\,\nonnumber\\&&\韦克{x}_{\text{mean}}:=\frac{1}{|\mathcal{T}^\ast|}\sum_{T\in\mathcal{T}^\ast}\frac{1}{N_p(T)}\sum_{i=1}^{N_p(T)}\vec{x} _ i(t) \。\结束{eqnarray*}$$
(2)
通常,可以通过仿射的规则给出的变换
$$\开始{方程式}\mathbf{x^{\prime}}(t)={\begin{pmatrix}T_{00}(t)和t_{01}(t)\\T_{10}(T)和T_{11}(T)结束{pmatrix}}\mathbf{x}(T+{begin{pmatrix}B_0(t)\\B_1(t)\结束{pmatrix}}\,\结束{方程式}$$
(3)
哪里|$\mathbf{x}(t)$|是(2×N个第页(t吨))集中工厂位置矩阵|$\mathcal{\bar{P}}(t)$|。我们假设剪切效应与GPS校准问题无关。通过这个假设,我们可以将方程具体化()通过只允许移位、旋转和缩放
$$\开始{方程式}\mathbf{x^{\prime}}(t)=S(t){\begin{pmatrix}\cos{\alpha(t\\\sin{\alpha(t)}&\cos{\alha(t){\end{pmatrix}}\mathbf{x}(t{pmatrix}B_0(吨)\\B_1(t)\结束{pmatrix}}\。\结束{方程式}$$
(4)
因此,我们可以减少通用变换矩阵元素T型ij公司(t吨)比例因子S公司(t吨)和旋转角α(t吨). 最初,图像应至少大致对齐,以便可以假设S公司(t吨)≈1和α(t吨) ≈ 0.换档参数B类0(t吨)和B类1(t吨)应该是几厘米左右。我们将执行通常所说的登记.将转换约束到等式中的设置(4),也称为刚性配准.对于优化相干点漂移[26]已应用。大致来说,它是基于一个基点集和一个浮点集,其中基点集充当数据点。浮点集表现为高斯混合模型的质心。目标是最小化负对数似然函数。至少,这两个点集被认为是最佳对齐或相互注册的。Myronenko和Song中提供了更多详细信息[26].

为了对齐所有(集中)点云|$\mathcal{\bar{P}}(t)$|根据采集日期,必须对所有层多次应用该程序|$\mathcal{T}^\ast$|一步一步地。通常,覆盖率越低,检测到的峰值越多。其中一个原因是,较低的模糊带宽使较细的结构在低覆盖率下保持可见。因此,有必要对收购进行排序,而不是按日历日期,而是按之前估计的覆盖率进行升序,即按生长函数拟合(参见excursus:生长函数部分)或按覆盖率估计(参见植物-土壤分割部分)。对于刚性配准,我们需要一个基点集和一个浮点集。作为初始基础集,点云属于具有采集日期的覆盖率最低的图像|$t_{\text{init}}\in\mathcal{t}^{\ast}$|被选中,即,|$\mathcal{\bar{P}}(t_{text{init}})$|。浮动集是具有下一个更高覆盖率的点云。为了使对准鲁棒,只考虑两个集合中在最大距离内另一个集合中有下一个相邻点的那些点d日登记.

在执行配准之后,得到的变换(参见等式(4))应用于浮动层的所有点上。通过对彼此相邻的对齐点进行分组并计算其质心,形成新的基集。结果集|$\mathcal{\bar{P}}_{\text{comb}}$|仅包含那些以组或群集为中心的中心。给定阈值距离内没有邻居的点d日被认为是新的群体。此距离应选择小于d日登记随后,使用基(质心)集重复该方法|$\mathcal{\bar{P}}_{\text{comb}}$|以及具有下一个较高覆盖率的点云作为浮动集。

开发的分组算法也应用于最终分组,因此我们将在稍后的章节中详细讨论在时间段内连接各个植物。

识别播种线

峰值位置相互对齐,这意味着应基本消除可能的图像采集错误。通常,就像给定的数据集一样,植物是在直线平行的播种线上播种的。在这些线之外识别出的峰值可以被视为杂草、其他不需要的物体或杂音。因此,提取播种线位置以滤除这些位置是很方便的。为了做到这一点,我们将可能的播种线与x个-或-轴,因为基于GPS的图像不一定如此,它们与地理坐标系对齐。在这项工作中,播种线对齐以与x个-轴。与Lottes等人[27]直接利用图像信息,利用点云信息来推断播种线的位置和角度。此外,在补充材料.

让我们考虑一下收购日期|$\mathcal{T}^\ast$|其中峰值点云可用。种子线识别的思想是对关节点云应用旋转变换|$\bigcup_{t\in\mathcal{t}^{\ast}}\mathcal{\bar{P}}_{\text{aligned}}(t)=\mathcale{\bar}}_}\text{arigned}$|.任务是找到正确的旋转角度α在计算机视觉领域中,找到图像中直线和圆等规则结构的一种既定方法是霍夫变换[28]. 它通过将这些线转换为由线角θ及其最小距离组成的特征空间(霍夫空间)来检测图像中形成线结构的点d日来源。因此,(欧几里德)图像空间中的无限线被映射到霍夫空间中的一个点。填充霍夫空间的强力方法是在每个非零图像点扫描一组与该点相交的不同角度的线。如果另一个点在这条线上,则相应的(θ,d日)-霍夫空间中的垃圾箱。最后,图像中的无限线可以通过霍夫空间中的“节点”看到。

要使用此方法,我们首先需要|$\mathcal{\bar{P}}_{\text{aligned}}$|通过将峰值分为具有固定分格宽度的二维直方图,将其分格为栅格化图像。因此,这些箱子可以解释为图像像素。然而,获得的图像的分辨率比原始图像低得多,这使得该方法比考虑Lottes等人的全分辨率植物图像更快[27]. 其次,我们首先扫描(−90)中的固定角度,90]. 这导致了对角度的粗略搜索,尽管我们希望所有种子线都以相同的角度旋转。图像中可能会出现其他随机发现的线条,但它们是漫反射角度的。正确的播种线角度预计会定期出现,因此我们可以期望围绕正确的播种线上角度进行聚类。因此,我们使用了嵌套区间的原则:我们将查询角度的区间划分为小的区间。在下一步中,我们使用这些箱子计算所有发现角度的直方图。漫反射角度将分布在多个箱子上,而我们的播种线角度应累积在一个或至少几个箱子中。我们取这个bin,可能还有周围的bin,并将它们作为新的查询间隔,然后再将其划分为bin。经过几次迭代,可以找到所有可见种子线α的公共角度.图8显示了应用于光栅化峰值位置图像的霍夫变换。

:使用霍夫变换确定播种线旋转角度。左图显示了应用于右图所示光栅化图像的霍夫变换。由于可见性的原因,右侧图像被光栅化,其bin宽度是实际Hough变换图像的5倍。我们可以在霍夫变换中以大约−14○的角度看到一组节点。每个节点对应于右图中的一条找到的线。通过节点的垂直距离,可以推断出直线距离。
图8

:使用霍夫变换确定播种线旋转角度。左图显示了应用于右图所示光栅化图像的霍夫变换。由于可见性的原因,右侧图像被光栅化,其bin宽度是实际Hough变换图像的5倍。我们可以在霍夫变换中看到大约为−14的角度的一组节点。每个节点对应于右图像中的一条找到的线。通过节点的垂直距离,可以推断出直线距离。

由于Hough变换不仅产生线角度,还产生线距离,因此可以直接使用此方法提取种子线本身。然而,基于霍夫变换的检测可能会遗漏一些不太突出的线星座。这就是为什么我们再次在点云中搜索播种线位置,点云按α旋转然而,我们可以使用霍夫变换结果的距离信息来估计预期的播种线距离。为了得到一个对漏播线稳健的稳定估计,我们在下一步中使用中间播线距离。

我们只考虑-坐标|$\vec美元{y} _秒$|旋转点云的。其原理是用一个中心来计算某个窗口内的点坐标和尺寸λ。以给定精度ρ(即,两个最近窗口中心之间的距离)扫描所有坐标,得出相对于窗口中心位置的包含点之和。最后,应用峰值查找方法提取局部极大值,该极大值表示(排序的)种子线位置|$\vec{y}^\ast$|。示例图可以在补充材料.此方法的成功在很大程度上取决于λ和ρ的正确选择。为了使该程序稳定工作,设置与霍夫变换的种子线距离估计相关的λ和ρ是有帮助的。考虑到人们实际上大致知道峰值应该位于何处,峰值发现也可以进行调整。

过滤杂草

知道播种线位置的一个好处是,可以有效地过滤出位于线外的识别对象,这些对象主要是杂草或错误检测。通常,播种线与相邻播种线之间的距离是固定的,因此所有距离都近似于平均距离。然而,如果图像中包含少量不规则的播种线距离(例如,由于中间有大车轨道),则选择中间距离也很有帮助|$\波浪线{d}$|超过平均值。此外,我们通过以下方式确定每个点到下一个播种线的距离
$$\开始{方程式}d_i=\分钟{|y_i\vec{1}-\vec{y}^\ast|}\,\结束{方程式}$$
(5)
哪里是集中、对齐和旋转-的坐标工厂位置和|$\vec{1}^\top=\lbrace 1\rbrace ^{\dim{\vec}y}^\ast}}$|所有最近距离d日确定阈值因子ϑd日可以设置为指定中间距离的比例|$\波浪线{d}$|应为每个植物位置到其下一个播种线的最大距离,以被视为有效检测。因此,条件是
$$\开始{方程式}d_i\le\vartheta d\tilde{d}\。\结束{方程式}$$
(6)
阈值因子是工作流的另一个参数,必须谨慎选择。值太小会导致错误地将植物识别为杂草,而值太大会降低过滤效果,从而使许多杂草被识别为植物。9显示了一个具有阈值因子的杂草过滤示例d日=0.15,这对于所考虑的数据集来说是一个很好的选择。
:杂草过滤。摘自应用杂草过滤的峰值位置。绿色阴影有效区域内的峰值被视为有效植物(绿点),而外部的峰值被掩盖为杂草(红点)。
图9

:杂草过滤。摘自应用杂草过滤的峰值位置。绿色阴影有效区域内的峰值被视为有效植物(绿点),而外部的峰值被掩盖为杂草(红点)。

在时间内链接单个植物

在对齐和过滤峰值位置后,我们重新定义|$\mathcal{P}(t)$|对齐、过滤工厂位置和|$\mathcal{P}:=\bigcup_{t\in\mathcal{t^{ast}}}\mathcali{P}(t)$|成为统一的点云。

此外,在标签向量中总结了所有植物的相应图像采集数据|$\vec{t}\in\mathcal{t^\ast}^{|\mathcal{P}|}$|。目标是将点云分组为簇|$\mathcal{G}\subset\mathcal{P}$|从而识别记录在这些图像中的单个植物,这些植物是用以前的方法检测到的。因此,每个簇的一个重要坐标是其质心|$\vec{\zeta}$|,计算依据
$$\开始{方程式}\vec{\zeta}_i=\frac{1}{|\mathcal{G} _ i|}\sum_{\vec{x}\in\mathcal{G} _ i}\vec{x}\,\结束{方程式}$$
(7)
其中|$\vec{x}$|簇的点坐标是|$\mathcal{P}$|。我们称之为集合n个c(c)簇质心|$\mathcal{C}:=\lbrace\vec{\zeta}_i\rbrace_{i=0}^{n_C}$|此外,我们可以假设每个集群在每个收购日期包含的成员不超过一个|$\mathcal{T}^\ast$|使用经典方法,如k-means或更复杂的方法,如DBSCAN[29]对于聚类,我们很难利用这些知识。这些常用方法只处理单点云,而不集成有关这些点的更多信息。因此,一个集群中可能存在来自同一采集日期的多个点。为了整合采集日期信息,我们使用了一种迭代或“分层”方法,类似于点对点配准,类似于相干点漂移方法(参见对齐工厂位置一节)。不同的采集日期被视为点的层次。一般来说,低覆盖率地块中的植物检测更精确,因此我们从覆盖率最低的日期层开始,就像我们对路线所做的那样。每个植物位置都被视为包含一个成员的集群的质心。我们通过为每个质心分配一个唯一的簇ID来标记它们。随后,考虑覆盖率第二低的层。我们基于聚类质心评估最近邻模型,以获得新层中每个点到其下一个聚类质心的欧氏距离。接下来,必须根据下一个邻居距离做出一些决定d日。我们设置了最大点质心距离d日最大值对于被视为相应簇成员的点。因此,如果新候选人在这个距离之内(d日d日最大值),我们用相应的簇ID标记这些点。可能会发生多个候选点在此距离内。然后,我们只注册距离集群最近的点,并丢弃其他候选点。此距离以外的点(d日>d日最大值)假定为标记为新单个集群ID的新集群。最后,通过将新候选对象及其相应的簇包含在内,重新计算簇质心。重复此过程,直到处理完所有层。最后,我们最多可以得到带有的集群|$|\mathcal{T}^\ast|$|成员和标签向量|$\vec{l}$|包含每个点对应的簇ID。10显示了现在表示单个植物的簇质心的示例图。ID是从0开始的升序整数值。丢弃的点得到标签-1。摘要算法是用伪代码编写的,可以在补充材料.
:簇质心。每个簇代表一个植物,并将检测结果合并到图像序列中。
图10

:簇质心。每个簇代表一个植物,并将检测结果合并到图像序列中。

进一步过滤和间接检测

利用星团质心的信息|$\mathcal{C}$|根据时间内连接单个植物的部分的结果,我们可以在图像中找到单个植物,因为空间位置是固定的,所以不一定检测到它。但首先,我们从某种程度上“修饰”开始。

我们的聚类算法中的标签编号是连续的,但由于新的聚类是从不同的步骤开始的,而不是排序的。然而,我们可能希望对标签进行分类,以便在现场操作中更清晰地检索设备。合理的方法是使用播种线坐标|$\vec{y}^{*}$|为了确定每个植物组的播种线ID,再次识别播种线。簇质心|$\mathcal{C}$|用于计算最近的播种线并分配其ID到每个集群。
$$\开始{eqnarray*}i_s=\arg{}\bunderset{y^\ast\in\vec{y}^\ast}{\min{}}| y_c-y^\ast | \,\结束{eqnarray*}$$
哪里c(c)-簇质心的坐标。因此,我们将初始标签替换为新的已排序标签:主要按种子线ID排序,在本例中,次要按x个-簇质心的坐标。图中显示了完整字段的标签排序补充材料.
此外,拥有簇形心位置的特殊之处在于,我们可以检索高覆盖率图像中的植物位置,即那些具有采集日期的图像|$t\in\mathcal{t}\setminus\mathcal{t^\ast}$|-无法应用上述方法。此外,并非每个植物都能在所有分析图像中识别出来。在这种情况下,我们将上述方法的检测命名为直接探测,而使用簇质心重建的位置称为间接检测对齐算法不仅为我们提供了(直接检测到的)植物位置的对齐坐标,还提供了变换向量|$\vec{R}(t):=(S(t),\alpha(t$|对于每个图像。6由于对齐是(刚性)仿射变换,因此它们是可逆的。因此,它是
$$\开始{eqnarray*}\mathbf{x}(t)=\frac{1}{S(t)}{\begin{pmatrix}\cos{\alpha(t\\-\sin{\alpha(t)}&\cos{\alha(t){\end{pmatrix}}\left(\mathbf{x^{\prime}}(t)-{\begin{pmatrix}B_0(t)\\B_1(t)\结束{pmatrix}}\右)\。\结束{eqnarray*}$$
通过重新排列方程(4). 因此,我们可以使用此逆变换计算间接检测的设备位置,以填充点云。为了恢复单个图像中直接检测到的设备位置,我们必须再次添加校准误差(参见校准设备位置部分)。请进一步注意|$\mathbf{x}(t)$|仍然是集中的通用横轴墨卡托坐标,该坐标在关于对齐设备位置的章节中介绍。为了分别对GPS坐标系和光栅化图像像素系统进行完全的逆变换,我们必须添加平均矢量|美元\vec{x}_{\text{mean}}$|再一次。最后,每个采集日期的间接检测基本上是将检测到的聚类质心反变换为各个采集日期图像数据的坐标系。

有了上述所有过滤规则,我们就有了一个标记点集,其中每个簇都有|$n_t=|\mathcal{t}|$|成员,每个收购日期一个|$t\in\mathcal{t}$|最后,我们要求对这些植物进行“编目”

评估和讨论

在本节中,我们根据两个数据集的可用地面实况信息评估我们的结果。此外,我们为工作流介绍了两个可以想象的示例应用程序用例。

验证:甜菜数据集

以可用的工厂位置手动注释信息作为参考,我们可以验证上述方法。对于甜菜数据集,有一些基本事实数据可用,这使我们能够对真阳性(TP(转移定价)),真阴性(TN公司),假阳性(FP公司)、和假阴性(FN公司)检测。由于真阴性检测在这种应用中没有意义,所以像准确性这样的测量是不合适的。因此,我们重点关注另外两个称为精度回忆由定义
$$\开始{eqnarray*}\text{recally}=\frac{TP}{TP+FN}\,\qquad\text{precision}=\frac{TP}{TP+FP}\。\结束{eqnarray*}$$
描述性地说,召回描述了我们的方法捕捉到的真实种子植物的比率,而准确度衡量的是我们的方法检测到的真实植物数量的比率。我们想相互比较类似于点的位置。因此,我们额外设置了真实植物位置与其潜在检测位置之间最大距离的公差半径。我们要求识别植物的最大公差为8 cm(即检测到的植物位置和地面实况注释之间的最大距离)。计数TP、FP、和FN公司这得益于最近邻方法。对于每个设备检测,评估ID和到下一个真实设备位置的距离。然后我们迭代真实的植物位置。对于它们中的每一种,我们都会查看与分配给相应真实植物的植物检测之间的距离。如果在我们的公差范围内至少有一个赋值,我们递增TP(转移定价)按1和FP公司按剩余总分配数计算。如果公差范围内没有赋值,则增加FN公司按1和FP公司按总作业数计算。由于每个识别出的植物位置都被精确地分配到一个真实位置,因此我们用这种方法来考虑每个真实和识别出的植株。最后,我们获得了二进制分类器的计数,并可以计算精度和召回率。此外,我们的方法通过直接和间接检测得出植物位置。在地面实况数据中,如果植物在早期图像中不可见,则不会对其进行注释。由于我们的方法使用植物位置质心的逆变换|$\mathcal{C}$|,即使它还不可见,它也会找到植物。因此,我们忽略了所有“领先”的间接检测,因此就采集日期而言,所有检测都早于第一次直接检测。

图的上部绘图11显示了对具有可用地面实况的野外图像的精确度与召回率的评估。下面显示了每个采集日期(按颜色编码)的示例图像。对于大多数图像,我们达到了至少90%的精度。大多数图像的召回率至少为90%。正如我们所预期的,由于植物的点状度较低,覆盖率越高,植物检测就越不准确。然而,在较低覆盖率下的早期电厂检测更有信心。这表明高覆盖率图像不适合植物检测,只能用于间接检索聚类中心已知的植物位置|$\mathcal{C}$|.

:甜菜数据集的精确度和召回评估摘要。上面的图显示了具有可用地面实况数据的所有野外图像的精确度与召回率。颜色显示相应图像的采集日期。下面是示例性的现场摘录——每个可用收购日期一个。在这些地块上,真正的植物用白点标记。黑点表示通过我们的峰值检测方法进行的直接检测。灰点是利用同一场其他图像的信息,对每幅图像中的位置进行反变换的间接检测。
图11

:甜菜数据集的精确度和召回评估摘要。上面的图显示了具有可用地面实况数据的所有野外图像的精确度与召回率。颜色显示相应图像的采集日期。下面是示例性的现场摘录——每个可用收购日期一个。在这些地块上,真正的植物用白点标记。黑点表示通过我们的峰值检测方法进行的直接检测。灰点是利用同一场其他图像的信息,对每幅图像中的位置进行反变换的间接检测。

一般来说,精度低于召回,这表明我们的工作流程有一些假阳性的工厂识别。大多数情况下,这些假植物是双重识别,或者仍然保留在播种线内或过滤杂草部分中定义的耐受区域内的杂草。由于我们的方法不像可能的深度学习方法那样对实际植物形状敏感,这仍然是一个问题。我们的工作流程往往具有更高的精度,田地的除草效果越好,就像在花椰菜数据集中一样。在线杂草可以通过手动或进一步的形状敏感方法进行过滤,而通过更好的聚类参数可以减少双重检测。

验证:花椰菜数据集

我们在花椰菜数据集上评估我们的方法,类似于验证部分中描述的甜菜数据集:甜菜数据集中。这里的区别在于没有“人类注释”的地面真相数据可用。然而,在花椰菜数据的实际使用案例中,基于掩码区域的卷积神经网络(Mask R-CNN)[30]利用单个花椰菜植株图像进行训练,提取植株位置。我们的评估使用Mask R-CNN结果作为我们自己直接和间接检测的参考。掩码R-CNN应用于单个图像(2020年8月19日)。尽管如此,我们认为检测在所有收购日期都有效,以评估我们的日间(直接和间接)检测。作为我们和参考检测之间的最大公差距离,我们选择12 cm,这大致是参考检测日期的植物半径。图中显示了五个评估日期12由于我们的方法,只要在合理的覆盖率范围内,在每个图像中都可以检测到植物,我们的方法比Mask R-CNN方法产生更精确的植物位置。这对于进一步提取单个植物的图像至关重要,其中植物应位于每个提取图像的中心。我们的检测结果与Mark R-CNN的检测结果吻合得很好,准确率超过95%,召回率超过97%。特别是,这些基准比甜菜数据集的基准要好。这很可能是因为与甜菜相比,花椰菜植株的间距和分辨率更大。

:花椰菜数据集的精确度和召回率评估摘要。上面的图显示了具有可用参考检测数据的所有现场图像的精确度与召回率。颜色显示相应图像的采集日期。下面是示例性的现场摘录——每个可用收购日期一个。在这些地块上,真正的植物用白点标记。黑点表示通过我们的峰值检测方法进行的直接检测。灰点是利用同一场的其他图像的信息,通过反向变换每个图像中的位置来间接检测的。作为参考检测方法,植物位置由Mask R-CNN检测[30]。
图12

:花椰菜数据集的精确度和召回率评估摘要。上面的图显示了具有可用参考检测数据的所有现场图像的精确度与召回率。颜色显示相应图像的采集日期。下面是示例性的现场摘录——每个可用收购日期一个。在这些地块上,真正的植物用白点标记。黑点表示通过我们的峰值检测方法进行的直接检测。灰点是利用同一场的其他图像的信息,通过反向变换每个图像中的位置来间接检测的。作为参考检测方法,植物位置由Mask R-CNN检测[30].

应用:现场注释

我们将所有工厂位置都作为GPS坐标提供,从而可以使用地理信息系统应用程序处理数据,如QGIS(质量地理信息系统)[17]. 对于工厂评估或注释等现场操作,工厂目录可以通过提供感兴趣的工厂的结构化位置样本来支持。此外,一些有趣的应用程序,如Q字段[31]能够在智能手机上直接处理地理参考数据。这对于农民来说是一个极好的工具,他们可以使用植物目录和当前的GPS位置直接“在线”完成田间任务。例如,将植物目录导出为KML文件[32]允许使用更多注释数据(如疾病严重程度评分、叶片数量、附加图像等)来丰富地理参考植物目录。图13显示了在现场场景中可能出现的情况。

:QField现场观测的植物目录。Android智能手机上的示例屏幕截图。可以单独访问检测到的植物,并且可以添加各种注释,如质量评估、附加注释或其他图像。
图13

:QField现场观测的工厂目录。Android智能手机上的示例性屏幕截图。可以单独访问检测到的植物,并且可以添加各种注释,如质量评估、附加注释或其他图像。

应用:用于疾病严重程度分类的图像提取

收集的植物目录的一个有趣的用例是图像提取。该目录可以收集单个植物的时间序列图像。通过在各自的基于像素的图像坐标系中对簇成员坐标进行逆变换(参见进一步的滤波和间接检测部分),可以获得植物的“原始”像素位置。接下来,我们只需在这些像素周围定义一个框架,然后得到更小的“块”。这些块可以用于进一步的步骤,例如,作为神经网络架构的训练集,如Yamati等人[33]. 这些图像在多个日期与单个植物链接,这一事实使该数据集不仅可用于空间相关分析,还可用于时间序列分析。14显示了花椰菜数据集的几个示例图像块。甜菜数据集的其他示例图像块可以在补充材料.

:检测到花椰菜数据集的植物位置。用我们的方法检测的五个随机选取的植物RGB图像序列。收购日期向下增加。黑色帧注释直接和灰色帧间接检测。
图14

:检测到花椰菜数据集的植物位置。用我们的方法检测的五个随机选取的植物RGB图像序列。收购日期向下增加。黑色帧注释直接和灰色帧间接检测。

作为一个简单的示例应用程序,我们可以使用提取的图像通过图像分类来自动进行植物健康评级。评级尺度7基于KWS SAAT SE&Co.KGa公司的规模[3435]. 显示了五种植物健康状态,并将其分为1、3、5和9类。我们补充了介于两者之间的类别,导致10种疾病严重程度从1(完全健康)到10(完全患病)。对提取的约4000幅植物图像的子样本进行注释,以训练卷积神经网络。为了增加训练样本的大小,我们通过随机移位和旋转对相同植物的进一步图像进行采样来增加数据。还可以设想进一步的增强方法,如采样不同的光照条件[36]. 对于卷积神经网络的例子,我们使用标准的ResNet-50模型[37]在ImageNet数据集上预训练的[38]由RGB图像组成。我们通过在ResNet-50网络之前添加2个卷积层,使网络适应我们的用例(5个通道,10个输出类),从而将5个通道依次减少到3个。在ResNet-50层之后,我们添加了一个致密层,将2048个等级降低到10个疾病严重程度。图中真实和预测疾病严重程度之间的混淆矩阵15表明分类在很大程度上是可行的。然而,前5个学位之间的区别似乎很有挑战性。当然,可以做进一步的研究,因为这超出了这项工作的范围。

:疾病严重程度分类示例的混淆矩阵。热图中的值是相应类别的百分比。百分比标准化为真实值,因此所有行的总和为100%。
图15

:疾病严重程度分类示例的混淆矩阵。热图中的值是相应类别的百分比。百分比标准化为真实值,因此所有行的总和为100%。

结论

该工作流程对这两个考虑的数据集都显示了非常令人满意的检测性能。通过选择RGB-only VI进行峰值检测,我们成功地证明了对于我们的植物编目来说,RGB信息是足够的。这对于用例可能很重要,如花椰菜数据集所示,无论出于何种原因,多光谱甚至高光谱数据采集都是不可行的。然而,我们可能并不排除在光谱之外的可用数据可以提高峰值检测性能。高度自动化使大规模数据分析成为可能。特别是对于由多个较小字段组成的字段,如甜菜数据集中的字段,可以并行处理许多工作流步骤。

如果培训数据可用,则必须对基于深度学习的植物识别方法进行不同植物大小的培训。不幸的是,对于遮篷关闭的图像(⁠|$c\gt{75}{\%}$|)深度学习和我们相当“经典”的方法都将失败,因为相邻的植物无法区分。然而,对于可行的植物大小,我们的方法基本上不确定植物大小,可以有效地提取图像,用于训练更好的基于深度学习的植物识别系统。

通过利用无人机图像中的地理空间信息,我们可以在像素单位和公制单位(如厘米)之间进行转换。从用户的角度来看,这使得工作流非常适合具有不同植物和播种条件的其他数据集。我们可以直接参考真实世界中的测量值,如植物半径或播种距离,而无需考虑图像分辨率。

最近开发的高级深度学习模型需要大量数据,尤其是涉及图像处理的任务,例如使用Mask R-CNN进行分类和实例分割。原则上,无创遥感和无人机可以应用于大规模农业实验和相应数据。通过自动化植物编目并提供数据框架,我们的工作有助于充分挖掘无人机成像在农业环境中的潜力。

源代码的可用性

我们工作流程的源代码可在以下存储库中获得:

  • 项目名称:工厂编目工作流

  • GitHub存储库:https://github.com/mrcgndr/plant_cataloging_workflow

  • RRID:SCR_022276

  • 操作系统:独立于平台(带conda),Linux(带Docker)

  • 编程语言:Python(3.9或更高版本)

  • 许可证:Apache License 2.0

数据可用性

甜菜数据的子集可用,以便运行工作流并重现结果。数据已上传至GigaScience数据库(GigaDB),以及我们的代码快照[39]. 如前所述,数据集的特定用例是我们工作流的附属用例。这两个数据集都用于进行中的研究,因此无法完全发布。然而,分布式子集足以支持本文的结果。

其他文件

图16.播种线识别。对于种子线识别,窗口中具有大小的点|$\lambda={32}{\,\mathrm{px}}$|扫描精度为|$\rho={0.5}{\,\mathrm{px}}$|如左图所示。在本例中,通过k均值找到了29个有效峰值。他们代表中心-右图中显示的播种线的坐标以及相应的(旋转的)峰值位置。

图17.组标签排序。

图18.检测到甜菜叶斑数据集的植物位置。我们的方法检测到四个随机选取的植物RGB图像序列。收购日期向下增加。显示了每秒钟的采集日期。黑色帧注释直接和灰色帧间接检测。柱分别从接种、杀菌剂处理、天然和参考字段中按4个示例分块排列。

缩写

CLS公司:尾孢属叶斑病;CNN:卷积神经网络;GCP:地面控制点;GLI:绿叶指数;全球导航卫星系统;GPS:全球定位系统;激光雷达:光探测和测距;NGRDI:归一化绿/红差值指数;OSAVI:优化土壤调整植被指数;RTK:实时动态定位;UAV:无人机;六: 植被指数。

竞争性利益

作者声明,他们没有相互竞争的利益。

基金

这项工作由德国卓越战略(EXC 2070–390732324)下的Deutsche Forschungsgemeinschaft(DFG,德国研究基金会)资助,部分由欧洲农业农村发展基金资助,并由North-Rhine Westphalia(17-02.12.01-10/16–EP-0004617925-19-001)出资。这项工作的部分资金由德国联邦教育和研究部(BMBF)在国际未来人工智能实验室“AI4EO–地球观测人工智能:推理、不确定性、道德及其他”(授权号:01DD20001)的框架内提供。

作者的贡献

工作流程由M.G.设计和实现。甜菜试验由F.R.I.Y.进行,并对相应数据进行预处理和注释。菜花数据集由J.K.M.G.、F.R.I.Y.提供并预处理,J.K.起草了手稿。C.B.、A.-K.M.和R.R.监督了这项研究。所有作者都批准了最后的手稿。

致谢

我们要感谢弗劳恩霍夫IAIS媒体工程部的所有同事,感谢他们在讨论这项工作的研究过程中给予我们的启发和支持。此外,特别感谢IfZ的传感器团队和PhenoRob卓越集群的同事们提供有关所用数据的访问和帮助。

脚注

1

SES和Have。

2

SZ DJI Technology Co.,Ltd.,中国深圳。

美国MicaSense公司。

4

版本1.6.3.10732。

5

3.16版。

6

……只要覆盖率不太高。然而,如果是这样,则无法执行对齐,且变换向量是恒等变换|$\vec{R}(t):=(1,0,0,0)^\top$|.

7

德语:Bonitur。

参考文献

1

梅斯
白色
草原
K(K)
.
无人机遥感在精准农业中的应用前景
.
植物科学趋势
.
2019
;
24
(
2
):
152
——
64
...

2

鲍克哈格
C类
克斯汀
K(K)
.
农业中的数据挖掘与模式识别
.
昆士利希智能
.
2013
;
27
(
4
):
313
——
24
.

三。

卡米拉里斯
A类
Prenafeta-Boldú
F类
.
农业深度学习:一项调查
.
计算机电子农业
.
2018
;
147
:
70
——
90
.

4

雷卡
日分
德赛
VV公司
阿贾旺
PS(聚苯乙烯)
遥感技术及其在农业中的应用
。输入:
2018年国际计算技术、电子和机械系统会议(CTEMS)
;
2018
第页。
193
——
7
..
K.L.S.戈特理工学院
.贝拉加维,印度

5

詹姆斯
K(K)
布拉德肖
K(K)
.
利用深度学习和无人机技术检测田间植物物种
.
方法生态进化
.
2020
;
11
(
11
):
1509
——
19
...

6

C类
阿斯纳
G公司
.
遥感在外来入侵植物研究中的应用
.
传感器
.
2009
;
9
(
6
):
4869
——
9
...

7

萨维安
F类
马提尼
M(M)
埃尔马科拉
P(P)
病害果园猕猴桃衰退综合征的遥感预测
.
遥感
.
2020
;
12
(
14
):
2194
.

8

格伦茨多夫
GJ公司
.
基于无人机图像的花椰菜单株几何参数自动生成快速表型分析
.
国际摄影测量、遥感和空间信息科学档案馆
.
2019
;
XLII-2/W13
:
329
——
35
.

9

瓦伦特
J型
莎丽
B类
库伊斯特拉
L(左)
从高分辨率航空图像中自动计算农作物数量
.
精准农业
.
2020
;
21
(
6
):
1366
——
84
...

10

Oniga公司
价值工程
布雷班
人工智能
斯塔特斯库
F类
.
基于UAS图像确定最佳地面控制点数量以获得高精度结果
.
诉讼
.
2018
;
2
(
7
):
352
..

11

格利希
F类
标志
E类
马林
阿拉斯加州
基于RGB图像的无人机尾孢叶斑病分类
.
无人机
.
2021
;
5
(
2
):
34
..

12

杰伊
S公司
科马尔
A类
贝尼西奥
R(右)
甜菜尾孢叶斑病评分:UGV和UAV表型系统的比较
.
植物物候学
.
2020
;
2020
:
1
——
18
...

13

德雷斯
L(左)
容克-弗隆
低压
基尔多夫
J型
基于条件生成对抗网络的油菜田间生长时间预测与评价
.
农业中的计算机和电子
.
190
:
2021
;.

14

马林
阿拉斯加州
库斯卡
百万吨
贝曼
J型
植物病理学中的高光谱传感器和成像技术:最新进展
.
植物疗法年度回顾
.
2018
;
56
(
1
):
535
——
58
...

15

博克
中国
巴尔贝多
日本黄金协会
庞特
EMD公司
从视觉评估到基于传感器的植物病害严重程度全自动测量:提高准确性的现状和挑战
.
植物病理学研究
.
2020
;
2
:.

16

博克
中国
蒋介石
堪萨斯州
庞特
EMD公司
.
目测植物病害严重程度:一个世纪的研究、最佳实践以及改进方法和实践以最大限度提高准确性的机会
.
热带植物病理学
.
2022
.
47
:
25
——
42
...

17

QGIS——一个免费开源的地理信息系统
..
2022年6月7日访问
.

18

基尔多夫
J型
容克-弗隆
低压
德拉尼
M(M)
GrowliFlower:用于cauLIFLOWER增长分析的图像时间序列数据集
.
2022
..

19

哈马达
E类
格拉文
M(M)
琼斯
E类
.
田间植物提取与分割的图像处理技术综述
.
计算机电子农业
.
2016
;
125
:
184
——
99
...

20

休特(Huete)
应收账
线路接口单元
总部
批量
K(K)
EOS-MODIS全球TM图像植被指数的比较
.
遥感环境
.
1997
;
59
(
):
440
——
51
..

21

J型
B类
.
重要的遥感植被指数:发展和应用综述
.
J传感器
.
2017
;
2017
:
1
——
17
...

22

卢海奇
M(M)
博尔曼
MM(毫米)
约翰逊
判定元件
.
用于记录放牧对小麦影响的空间定位平台和航空摄影
.
Geocarto国际
.
2001
;
16
(
1
):
65
——
70
...

23

塔克
希杰
.
用于监测植被的红色和照相红外线性组合
.
遥感环境
.
1979
;
8
(
2
):
127
——
50
..

24

朗多(Rondeaux)
G公司
史蒂文
M(M)
巴雷特
F类
.
土壤调节植被指数的优化
.
遥感环境
.
1996
;
55
(
2
):
95
——
107
.

25

大津
N个
.
一种基于灰度直方图的阈值选择方法
.
IEEE Trans-Syst Man网络
.
1979
;
9
(
1
):
62
——
66
.

26

米罗连科
A类
歌曲
X(X)
.
点集配准:相干点漂移
.
IEEE跨模式分析机智能
.
2010
;
32
(
12
):
2262
——
75
..

27

洛茨
P(P)
卡纳
R(右)
普法伊费尔
J型
基于无人机的作物和杂草分类用于智能农业
。输入:
2017 IEEE机器人与自动化国际会议(ICRA)
;
2017
第页。
3024
——
31
..
美国电气工程师协会
:新加坡滨海湾金沙酒店。

28

杜达
反渗透
雄鹿
体育课
.
使用霍夫变换检测图片中的直线和曲线
.
通用ACM
.
1972
;
15
(
1
):
11
——
5
...

29

埃斯特
M(M)
克里格尔
惠普
砂光机
J型
一种基于密度的带噪大型空间数据库簇发现算法
。输入:
第二届知识发现和数据挖掘国际会议论文集
;
AAAI出版社
1996
第页。
226
——
31
波特兰:美国俄勒冈州
Evangelos Simoudis公司
韩嘉伟,Usama Fayyad
.

30

K(K)
吉奥萨里
G公司
多拉
P(P)
屏蔽R-CNN
.
2018
..

31

QField——一个免费开源的地理信息系统
..A型
2022年6月7日访问。

32

谷歌
锁眼标记语言
..
2022年6月7日访问。

33

雅马蒂
FRI公司
巴雷托
A类
德国
M(M)
利用无人机支持的图像数据和深度学习感知尾孢叶斑病的发生和动态
.
糖业
.
2022
;
147
:
79
——
86
...

34

KWS SAAT SE&Co.KGa公司
.
尾孢特性传单(德语:Cercospora-Klappkarte).https://mediamaster.kws.com/01_Produkte/ZuckerC3BCbe/Infothek-Downloads/cercospora-klappkarte.pdf。2021年4月28日查阅。

35

谢恩
栈单
.
尾孢叶斑病对甜菜根重、糖产量和纯度的影响
.
植物Dis
.
1992
;
76
(
8
):
812
..

36

缩短
C类
科什戈夫塔尔
TM(TM)
.
用于深度学习的图像数据增强技术综述
.
J大数据
.
2019
;
6
(
1
).
60英尺
.

37

K(K)
X(X)
S公司
用于图像识别的深度残差学习
.
2015
..

38

鲁萨科夫斯基
J型
H(H)
ImageNet大规模视觉识别挑战
.
国际计算机视觉杂志
.
2015
;
115
(
):
211
——
52
..https://doi.org/10.1007/s11263-015-0816-y.

39

格兰德
M(M)
雅马蒂
FRI公司
基尔多夫
J型
支持“利用计算机视觉从基于无人机的作物图像进行农业植物编目和建立数据框架”的数据
.
GigaScience数据库。
2022
..

这是一篇根据知识共享署名许可条款发布的开放存取文章(https://creativecommons.org/licenses/by/4.0/)它允许在任何介质中不受限制地重用、分发和复制原始作品,前提是正确引用了原始作品。