时间:2024-05-24
段凌凤,熊 雄,刘 谦,杨万能,3,黄成龙※
(1.华中农业大学工学院,武汉 430070;2.华中科技大学武汉光电国家研究中心,武汉 430074;3.华中农业大学作物遗传改良国家重点实验室,武汉 430070)
高产一直是水稻育种与栽培的重要目标之一[1]。在水稻育种与栽培相关领域研究中,需要测量大量候选样本在不同环境下的产量,为培育高产、优质、抗逆的水稻品种提供科学依据[2]。稻穗是水稻谷粒着生的器官,穗部性状与水稻产量直接相关[3]。稻穗在水稻病虫害检测[4]、营养诊断[5]及生育期检测[6]等方面也起着非常重要的作用。因此,稻穗的准确分割,是获取水稻穗部性状、实现水稻表型自动化测量的关键步骤[7]。不同品种及生育期稻穗外观如形状、颜色、大小、纹理、姿态等存在较大差异,稻穗边缘严重不规则,穗叶颜色也很大程度混叠。田间自然环境复杂,水稻不同器官间相互遮挡,光照不均匀且不断变化,这些因素都使得复杂大田环境下的稻穗分割非常困难。
一些学者基于像素水平的颜色特征[8-10]和纹理特征[11-12]分割果穗,处理速度快,但极易产生噪声。通过生成候选区域,判定候选区域的类别(穗或背景),可提高分割准确度[13-15]。目前,大多数研究基于像素水平颜色特征生成候选区域[13-15],区域边界贴合性较差,直接影响了候选区域识别及最终分割效果。Lu等融合简单线性迭代聚类方法(simple linear iterative clustering,SLIC)和graph-based方法产生超像素,提取超像素的平均颜色,由神经网络群体模型判别超像素类型,实现了玉米穗的分割[16]。在禾本科作物果穗识别方面,Guo等通过SVM(support vector machine)对处于抽穗期的稻穗检测问题进行研究[17]。范梦扬等基于麦穗颜色和纹理特征,利用SVM对麦穗区域进行识别[18]。
卷积神经网络(convolutional neural network,CNN)是近几年来兴起的一种适用于图像分析的深度学习模型[19-20],已成功应用于农业图像识别与分割[21-27]。在作物果穗识别与分割方面,Pound等[28]利用CNN实现了小麦特征部位如根尖、穗尖、穗基部等的识别。Xiong等[7]提出了一种基于超像素分割和CNN的稻穗分割算法-Panicle-SEG,能很好地应用于不同品种及生育期的大田稻穗分割,缺点在于算法耗时较长。
本研究提出了一种基于深度全卷积神经网络的大田稻穗分割算法,目标在于提升稻穗分割准确度及效率,为水稻表型自动化测量提供新的工具,进一步服务于水稻育种及栽培。
本研究采用的水稻品种来源于水稻种质资源。选取稻穗外观差异大的73个水稻品种,于2016年以小区形式种植于大田。每个小区面积为80×96 cm2,按5行4列(行距16 cm)的形式种植同一个品种的20株水稻。不同小区种植不同品种,小区与小区之间由保护行进行隔离。小区与小区之间间隔32 cm。通过尼康D40数码相机拍摄水稻图像,每张图像包含一个小区。共采集73张大田水稻图像,包含73个不同品种,各品种生育期不一致(从抽穗期至成熟期),拍摄时光照条件也不一致。随机取其中的50张用于离线训练大田稻穗分割算法,剩下的23张作为测试样本(称为2016测试图像集),用于评估算法的分割性能。
为进一步测试网络的泛化能力,于2017年种植水稻种质资源中除2016年73个品种以外的22个品种,并对这些品种进行高温胁迫,以测试算法对不同生长环境水稻稻穗的分割性能。相比于2016年的水稻,这些水稻所处生育期更接近于成熟期。一些品种稻穗抽出时间不一致,因此同一张图像中水稻不同稻穗间生育期不一致的现象更为严重。共采集22张图像,同样包含不同生育期,称为2017测试图像集。
本研究基于深度全卷积神经网络分割稻穗,流程见图1,主要包括2个步骤:1)PanicleNet离线训练;2)基于PanicleNet在线分割水稻图像。
图1 基于PanicleNet的稻穗分割总体技术流程Fig.1 Overall technical flowchart for panicle segmentation based on PanicleNet
1.2.1 PanicleNet网络结构
PanicleNet的网络结构与SegNet[29]类似。SegNet是由Cambridge提出的用于图像语义分割的深度全卷积神经网络,主要由编码网络、解码网络及像素级分类器构成[29]。编码网络的结构与VGG-16[30]相同,其特殊之处在于解码网络的设计。SegNet记录每个编码层在最大池化时的池化索引,并利用该因子进行上采样,从而无需学习如何上采样。SegNet的最大优势在于内存效率和计算效率高,且需要训练的参数相对较少[29]。
SegNet采用对称编解码的结构来获得多尺度信息,相比于FCN(fully convolutionalnetworks)[31],最大池化索引结构的引入使得SegNet计算量更小、精度更高。而相比于加入空洞卷积等结构使得精度更高的DeepLab[32]和PSPNet[33]等网络,SegNet的网络结构更加简单、运算速度更快。本研究中的稻穗分割是一个二分类问题,SegNet已经能够实现较高精度,对称编解码的结构使得网络引入了多尺度的能力,非常适合处理田间细小且不规则稻穗的分割问题,因此本研究基于SegNet设计PanicleNet,SegNet最后一个卷积层的通道数11,在本文中为2(PanicleNet),分别对应于稻穗和背景。
PanicleNet的具体结构见图2。每个卷积层的滑动步长(stride)均为1个像素,并通过边界扩充(pad=1)保持输入输出维度不变。池化层均采用最大池化,池化窗口大小为2×2,滑动步长为2。上采样层的采样尺度(scale)均为2。PanicleNet最后一个卷积层的通道数为2,其输出的特征图被输入到Softmax分类器进行逐像素的分类,最终输出分割结果图。
图2 PanicleNet网络结构示意图Fig.2 Illustration of PanicleNet architecture
1.2.2 PanicleNet离线训练
在本研究中,50张1971×1815像素(高×宽)的大田图像被用于离线训练PanicleNet。首先利用Photoshop对原始大田图像进行人工标注,稻穗像素被标注为1,背景像素被标注为0,作为真实分割结果。
图3 训练样本亮度调整扩增数据Fig.3 Data augmentation by adjusting illumination component
PanicleNet的具体训练过程如下:
1)图像补边及裁剪:为将原始图像变为可裁成整数张子图(360×480像素)的图像,对于每一张用于PanicleNet训练的原始图像及其对应的人工标注图像,对图像边缘补黑,具体操作为将1971×1815像素图像的边缘对称地补黑,补黑后的图像大小为2160×1920像素。将每张图像不重叠且无间隔地裁成24张360×480像素的图像,作为PanicleNet的输入图像。50张图像,共裁剪为50×24=1 200张子图。
2)划分训练集与验证集:将1 200张子图按4∶1的比例随机划分为训练集和验证集。
3)数据扩增:对每一张子图,均进行亮度调整,保持H分量和S分量不变,V分量分别增大、减小20%,用于模拟大田环境中的光照变化,提高PanicleNet的泛化能力。图3为典型的经过数据扩增的样本图像。经过数据扩增后,训练集和验证集的样本数分别为2 880和720张。
4)网络离线训练:基于Caffe平台训练PanicleNet。采用随机梯度下降法(stochastic gradient descent,SGD)训练网络,动量因子(momentum)设置为0.9,学习速率为0.001,利用VGG-16对PanicleNet的参数进行初始化,即采用微调(fine-tuning)的方法训练网络。训练集的batchsize设置为4,验证集的batchsize设置为2。图像中稻穗像素(类别1)和背景像素(类别0)的数目严重不平衡,背景像素数目远大于前景。若不进行处理,则训练出来的网络会倾向于将待分割像素分成背景。PanicleNet通过在损失中加入惩罚权重的方法来实现类别平衡,具体为对大样本类别(背景)设置较小的损失权重系数,而小样本类别(稻穗)则设置较大的损失权重系数。计算方法见式(1)~(2)。
式中W0为背景像素的权重,W1为稻穗像素的权重,Ni0为第i张图像中背景像素的个数,Ni1为第i张图像中稻穗像素的个数,Ni为第i张图像中像素的总数。
在本研究中,经过计算,背景和稻穗的权重分别为0.5873和3.3641。每训练720个epoch,进行一次验证,验证迭代次数为360,即每将所有的训练样本训练一次后,对所有的验证样本进行验证。当误差收敛(基本不变)时,停止训练。最终选用的网络迭代次数为72 000,即将所有样本训练了100次。
1.2.3基于PanicleNet在线分割水稻图像
离线训练好PanicleNet后,即可利用PanicleNet在线分割水稻图像。
1)图像边缘补黑,变为可裁为整数张子图,(360×480像素)的图像。2)图像裁剪为若干张子图,并记录子图的位置索引,以便于后续图像拼接恢复原始图像(图4)。3)基于PanicleNet对子图进行像素级语义分割。4)将分割后的子图按照其索引位置拼接为大图。5)去除补黑的边界,恢复与原始图像大小相同的分割图像。
图4 图像裁剪及子图位置索引记录示意图Fig.4 Image clipping and sub-image location indexes recording
基于上述图像分割过程,本研究利用包含不同品种、生育期及生长环境的2个测试图像集:2016测试图像集及2017测试图像集对本文算法的分割性能进行评估,并与现有作物果穗分割算法Panicle-SEG[7]、HSeg[10]、i2滞后阈值法[15]及JointSeg[16]进行对比。通过Qseg、召回率、精度以及F值评价分割性能[7]。其中Qseg值反映分割结果与真实值之间的相符程度,其值在0~1之间,Qseg值越高,分割效果越好。精度反映被分割为稻穗的样本中其真实标签为稻穗的比例,是分割结果精确程度的一种表征。召回率反映真实标签为稻穗的样本被正确分割的比例,衡量了分割稻穗区域的完整性。精度和召回率通常呈负相关,精度提高,召回率通常会降低,反之亦然。F值为综合考虑召回率和精度的平衡指标,兼顾分割的精准程度和完整性,F值越高,分割效果越好。
式中A为由分割算法分割得到的像素类别集合,包括背景(v=0)和前景(v=1),B为对应像素集的真实标签集合,包括背景(v=0)和前景(v=1)。i,j为像素索引,m为图像高,n为图像宽,vi,j为第i列第j行像素的灰度值。
式中TP为真实标签为稻穗且被分割为稻穗的像素个数,FP为真实标签为背景但被分割为稻穗的像素个数,FN为真实标签为稻穗但被分割为背景的像素个数。
基于2016测试图像集对基于SegNet[29]、DeepLab[32]和PSPNet[33]的网络对大田图像的分割性能进行测试与对比,结果见表1。3个网络均使用本文训练集训练,学习率均为0.001,动量均为0.9,当误差基本不变时停止训练。基于SegNet的网络综合分割性能略低于基于DeepLab和PSPNet的网络,表现为Qseg值和F值略低。这说明对于稻穗分割这种二分类问题,结构相对简单的SegNet网络架构即可以达到较好的分割效果。
在计算效率上,在Microsoft Windows 10专业版操作系统,12核 Intel(R)core™i7-6850k cpu@3.60GHz的处理器,32GB内存及NVIDIATITAN Xp显卡的配置下,处理一张360×480像素大小的图像,基于SegNet、DeepLab和PSPNet的网络耗时分别约为75、293和155 ms,基于SegNet的网络处理速度优于另2个网络。
综合考虑分割性能和处理速度,本研究最终基于SegNet的网络作为稻穗分割网络PanicleNet。
表1 不同网络性能比较Table 1 Performance comparison of different networks
本文算法和现有算法对测试图像的分割性能比较结果如表2和图5所示。
表2 基于PanicleNet的分割算法和现有算法对测试图像的分割性能比较Table 2 Performance comparison of PanicleNet and other approaches on testing images
依据表2,本文基于PanicleNet的分割算法性能最优,对2016测试图像集的平均分割性能为:Qseg值0.76,F值0.86,对2017测试图像集的平均分割性能为:Qseg值0.67,F值0.80。对2017测试图像集的分割性能略低于2016测试图像集,主要原因在于2017测试图像集中的水稻相比于2016年的图像更接近完熟期,稻穗颜色更黄,而用于训练PanicleNet的图像中无接近完熟期的图像。另外,两个数据集的水稻生长环境不同,2016年的水稻为正常生长条件,而2017年则为高温胁迫条件。Panicle-SEG算法的分割性能次之。对2016测试图像集的平均分割性能为:Qseg值0.59,F值0.74,对2017测试图像集的平均分割性能为:Qseg值0.55,F值0.71。PanicleNet的精度略低于Panicle-SEG,相应地,其召回率则远高于PanicleNet,表明PanicleNet是通过分割出更多的稻穗像素,提高稻穗区域的完整性来优化分割结果,获取更高的F值。
图5 本文算法和其他分割算法对测试图像的分割性能比较Fig.5 Performance comparison of our method and other methods on testing images
图5显示了不同分割算法对6张测试图像的分割结 果。其中图5a-5d为2016年采集,图5e-5f为2017年采集。处于抽穗期稻穗直立生长,在顶视图中稻穗面积很小;处于灌浆期稻穗弯曲生长,稻穗面积较大;处于成熟期,稻穗带芒;图5d稻穗,稻穗颜色与5a-5c相差较大,部分叶片颜色也为黄色;5e和5f中稻穗成熟程度不一致,有些稻穗很黄,另一些为绿色,且部分叶片已完全枯黄,总体上比5a-5d中水稻更接近完熟期。同一幅图像中稻穗的颜色、姿态、大小、形状及亮度等的差异也较大。本研究算法对以上情况都具有较好的分割性能。HSeg算法将很多背景分割为前景稻穗,分割精度较低。i2滞后阈值法比HSeg效果稍好,但对于穗叶颜色混叠的情况分割结果较差,其分割精度也较低。JointSeg算法是为分割玉米穗而设计的,从测试结果看,大量稻穗区域未被分割出来,算法召回率非常低。Panicle-SEG算法的分割精度很高,但对于细小稻穗的分割结果较差,Panicle-SEG分割结果中遗漏了很多小的稻穗区域,对稻穗边缘的细小分支结构的提取也不完整。而PanicleNet对称编码-解码的网络结构大大提高了模型多尺度信息处理能力,对细小稻穗区域敏感性较好,其召回率远高于Panicle-SEG,而精度仅略低于Panicle-SEG,最终的分割性能优于Panicle-SEG(具有更高的F值和Qseg值)。
总体上,基于深度学习的算法包括PanicleNet和Panicle-SEG在复杂大田稻穗分割这一问题上的性能优于传统的分割算法。这主要是因为基于深度学习的分割算法直接以原始图像作为输入,区别于传统的人为设计特征提取,自动学习隐含在数据中更为本质的、表达能力更强的图像特征,达到准确分割或分类的目的。而HSeg、i2滞后阈值法及JointSeg等传统算法在分割中都需要人工设计提取颜色特征。Hseg提取图像的H分量进行分割[10];i2滞后阈值法提取每个像素的i2颜色分量用于分割[15];JointSeg产生候选区域后,提取每个区域的平均RGB颜色特征进行分割[16]。本研究中不同图像甚至同一图像中不同稻穗的颜色不一致,穗叶颜色严重混叠,不同品种及生育期间稻穗颜色、形状、大小等都存在很大差异,人工很难设计出足够有效的特征用于分割,因此分割性能较差。而同样基于深度学习的Panicle-SEG算法的设计较为复杂,分为3个步骤:SLIC超像素分割产生候选区域、CNN判别候选区域类型以及ER优化分割结果,分割结果易受到几个重要参数如SLIC超像素区域数目、ER超像素区域数目、ER平衡因子等的影响[7]。本文提出的PanicleNet为端对端的像素级语义分割,算法首先将图像分块,由PanicleNet对子图进行像素级分割,再拼接分割子图,无需调节参数,即可实现对任意大小图像的分割。相比于Panicle-SEG,本文提取的算法在设计上更为简单,分割性能更好。
综上,PanicleNet能很好的克服稻穗边缘严重不规则、不同品种、生育期及生长环境稻穗外观差异大、穂叶颜色混叠和复杂大田环境中光照、遮挡等因素的干扰,准确地分割稻穗。
在2.1所述硬件环境下,PanicleNet处理一幅子图(360×480像素)耗时约75 ms,处理一幅1971×1815像素的图像耗时为原始图像裁剪的时间、24张子图分割的时间(约24×75 ms=1.8 s)以及24张子图分割结果拼接的时间之和,共计耗时约2 s。而在同一台计算机上,性能次优的Panicle-SEG算法参数设置如下:SLIC超像素区域数目20 000,ER超像素区域数目5 000,ER平衡因子0.5时,耗时CPU模式下约为80~90 s,GPU模式下约为70 s。综上所述,本研究算法计算速度约为Panicle-SEG算法的35倍,在效率上远远高于Panicle-SEG算法。
本文提出了一种基于深度全卷积神经网络的大田稻穗分割算法。基于SegNet网络模型架构,更改最后一个卷积层的通道数,应用经过数据增广的水稻图像数据集,训练了用于大田稻穗分割的深度全卷积神经网络PanicleNet。对于一张待分割图像,先将图像划分为适合PanicleNet输入大小的子图,然后基于PaniceNet对子图进行语义分割,最后将子图分割结果拼接恢复为原始图像的分割结果。用包含不同品种、生育期和生长环境的测试图像进行算法性能对比试验,各算法的平均分割性能如下:
1)与训练样本同年度拍摄样本PanicleNetQseg值为0.76,F值为0.86,优于Panicle-SEG的0.59和0.74,亦优于Hseg、i2滞后阈值法和JointSeg。
2)不同年度拍摄样本PanicleNetQseg值为0.67,F值为0.80,分割效果相对Panicle-SEG(Qseg为0.55、F为 0.71)、Hseg(Qseg为 0.26、为 0.39)、i2 滞后阈值法(Qseg为0.42、F为0.58)和JointSeg(Qseg为0.05、F为 0.11)。
综上,本研究所述算法性能远优于4种现有作物果穗分割算法。在处理速度上,本研究算法处理一张1 971×1 815像素的图像耗时约2 s,约为性能次优算法Panicle-SEG的35倍。
本文提出的大田稻穗分割算法对不同品种、生育期及生长环境的适应性较好,能克服复杂大田环境对图像分割的干扰,实现对大田稻穗的准确分割,分割准确性高,处理速度快,为水稻表型测量提供新的工具,进一步服务于水稻育种及栽培。
[1]Sang T,GeS.Understanding ricedomestication and implications for cultivar improvement[J].Current Opinion in Plant Biology,2013,16(2):139-146.
[2]Peng S,Khush G,Virk P,et al.Progress in ideotype breeding to increase rice yield potential[J].Field Crops Research,2008,108(1):32-38.
[3]Ikeda M,Hirose Y,Takashi T,et al.Analysis of rice panicle traits and detection of QTLs using an image analyzing method[J].Breeding Science,2010,60(1):55-64.
[4]Zhou X G.First report of bacterial panicle blight of rice caused by Burkholderia glumae in South Africa[J].Plant Disease,2014,98(4):566-566.
[5]Zhang Y,Liu M,Dannenmann M,et al.Benefit of using biodegradable film on rice grain yield and N use efficiency in ground coverrice production system [J].Field Crops Research,2017,201:52-59.
[6]Bonil K,Kang S K,Sang W G,et al.Variation of panicle differentiation stage by leaf growth according to rice cultivars and transplanting time[J].Korean Journal of Crop Science,2013,58(4):353-361.
[7]Xiong X,Duan L,Liu L,et al.Panicle-SEG:A robust image segmentation method for rice panicles in the field based on deep learning and superpixel optimization[J].Plant Methods,2017,13(1):104.
[8]陈含,吕行军,田凤珍,等.基于Sobel算子边缘检测的麦穗图像分割[J].农机化研究,2013(3):33-36.Chen Han,Lv Xingjun,Tian Fengzhen,et al.Wheat panicle image segmentation based on sobel operator-edge detection[J]. Journal of Agricultural Mechanization Research,2013(3):33-36.(in Chinese with English abstract)
[9]刘涛,孙成明,王力坚,等.基于图像处理技术的大田麦穗计数[J].农业机械学报,2014,45(2):282-290.Liu Tao,Sun Chengming,Wang Lijian,et al.In-field wheatear counting based on image processing technology[J].Transactions of the Chinese Society for Agricultural Machinery,2014,45(2):282-290.(in Chinese with English abstract)
[10]Tang W,Zhang Y,Zhang D,et al.Corn tassel detection based on image processing[C]//International Workshop on Image Processing and Optical Engineering.International Society for Optics and Photonics,2012,8335:83350J-1-83350J-7.
[11]Cointault F,Guerin D,Guillemin J P,et al.In‐field Triticum aestivum ear counting using colour‐texture image analysis[J].New Zealand Journal of Crop and Horticultural Science,2008,36(2):117-130.
[12]Frédéric C,Frédéric J,Gilles R,et al.Texture,color and frequentialproxy-detection image processing for crop Characterization in a ContextofPrecision Agriculture[M]//Godwin Aflakpui.Agricultural Science,Alexandria LA:InTech,2012:49-70.
[13]赵锋,王克俭,苑迎春,基于颜色特征和AdaBoost算法的麦穗识别的研究 [J].作物杂志,2014(1):141-144.Zhao Feng,Wang Kejian,Yuan Yingchun.Study on wheat spike identification based on color features and adaboost algorithm[J].Crops,2014(1):141-144.(in Chinese with English abstract)
[14]Zhu Y,Cao Z,Lu H,et al.In-field automatic observation of wheat heading stage using computer vision[J].Biosystems Engineering,2016,143:28-41.
[15]Duan L,Huang C,Chen G,et al.Determination of rice panicle numbers during heading by multi-angle imaging[J].The Crop Journal,2015,3(3):211-219.
[16]Lu H,Cao Z,Xiao Y,et al.Fine-grained maize tassel trait characterization with multi-view representations [J].Computers&Electronics in Agriculture,2015,118:143-158.
[17]Guo W,Fukatsu T,Ninomiya S.Automated characterization of flowering dynamics in rice using field-acquired time-series RGB images[J].Plant Methods,2015,11(1):1-15.
[18]范梦扬,马钦,刘峻明,等.基于机器视觉的大田环境小麦麦穗计数方法[J].农业机械学报,2015,46(增刊1):234-239.Fan Mengyang,Ma Qin,Liu Junming,et al.Counting method of wheatear in field based on machine vision technology[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(Supp.1):234-239.(in Chinese with English abstract)
[19]Lecun Y,Bengio Y,Hinton G.Deep learning[J].Nature,2015,521(7553):436-444.
[20]蒋树强,闵巍庆,王树徽.面向智能交互的图像识别技术综述与展望[J].计算机研究与发展,2016,53(1):113-122.Jiang Shuqiang,Min Weiqing,Wang Shuhui.Survey and prospect of intelligent interaction-oriented image recognition techniques[J].Journal of Computer Research&Development,2016,53(1):113-122.(in Chinese with English abstract)
[21]杨国国,鲍一丹,刘子毅.基于图像显著性分析与卷积神经网络的茶园害虫定位与识别[J].农业工程学报,2017,33(6):156-162.Yang Guoguo,Bao Yidan,Liu Ziyi.Localization and recognition of pests in tea plantation based on image saliency analysis and convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(6):156-162.(in Chinese with English abstract)
[22]孙俊,谭文军,毛罕平,等.基于改进卷积神经网络的多种植物叶片病害识别[J].农业工程学报,2017,33(19):209-215.Sun Jun,Tan Wenjun,Mao Hanping,et al.Recognition of multiple plant leaf diseases based on improved convolutional neural network[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(19):209-215.(in Chinese with English abstract)
[23]黄双萍,孙超,齐龙,等.基于深度卷积神经网络的水稻穗瘟病检测方法[J].农业工程学报,2017,33(20):169-176.Huang Shuangping,Sun Chao,Qi Long,et al.Rice panicle blast identification method based on deep convolution neural network [J].Transactions ofthe Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(20):169-176.(in Chinese with English abstract)
[24]周云成,许童羽,郑伟,等.基于深度卷积神经网络的番茄主要器官分类识别方法[J].农业工程学报,2017,33(15):219-226 Zhou Yuncheng,Xu Tongyu,Zheng Wei,et al.Classification and recognition approaches of tomato main organs based on DCNN [J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(15):219-226.(in Chinese with English abstract).
[25]鲁恒,付萧,贺一楠,等.基于迁移学习的无人机影像耕地信息提取方法[J].农业机械学报,2015,46(12):274-279.Lu Heng,Fu Xiao,He Yinan,et al.Cultivated land information extraction from high resolution UAV images based on transfer learning[J].Transactions of the Chinese Society for Agricultural Machinery,2015,46(12):274-279.(in Chinese with English abstract)
[26]李政,李永树,吴玺,等.基于卷积神经网络的空心村高分影像建筑物检测方法[J].农业机械学报,2017,48(9):160-165.Li Zheng,Li Yongshu,Wu Xi,et al.Hollow village building detection method using high resolution remote sensing image based on CNN[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(9):160-165.(in Chinese with English abstract)
[27]高震宇,王安,刘勇,等.基于卷积神经网络的鲜茶叶智能分选系统研究[J].农业机械学报,2017,48(7):53-58.Gao Zhenyu,Wang An,Liu Yong,etal.Intelligent fresh-tea-leaves sorting system research based on convolution neural network[J].Transactions of the Chinese Society for Agricultural Machinery,2017,48(7):53-58.(in Chinese with English abstract)
[28]Pound M P,Atkinson J A,Townsend A J,et al.Deep machine learning provides state-of-the-art performance in image-based plantphenotyping [J].Gigascience,2017,6(10):1-10.
[29]Badrinarayanan V,Kendall A,Cipolla R.SegNet:A deep convolutional encoder-decoder architecture for scene segmentation[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(12):2481-2495.
[30]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[J/OL].Computer Science,2014,1409:1556.
[31]Long J,ShelhamerE,DarrellT.Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2015:3431-3440.
[32]Chen L C,Papandreou G,Kokkinos I,et al.DeepLab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2018,40(4):834-848.
[33]Zhao H,Shi J,Qi X,etal.Pyramid scene parsing network[C]//IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2017:6230-6239.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!