时间:2024-05-24
刘立波,程晓龙,赖军臣
(1.宁夏大学信息工程学院,银川 750021;2.五家渠市农业局,五家渠 831300)
利用机器视觉技术自动化监测棉田棉花生长状态是棉花生产信息化的发展趋势,对实现棉田精细化管理有重要意义。其中在自然环境下将棉花冠层部分准确地分割出来,是该技术应用的关键环节。
目前基于农业场景的图像分割问题已有大量的研究成果,而基于棉田冠层图像分割问题的研究成果仍然较少。而目前常用的图像分割算法主要分为以下4类:基于阈值的分割算法[1]、基于图论的分割算法[2-3]、基于聚类的分割算法[4-7]、基于分类的分割算法[8-9]。其中,基于阈值的分割算法由于算法较为简单而被广泛应用,近年来相关研究者也提出了改进方案。如王璇等[10]提出了局部最大类间方差阈值分割方法,但该方法分割效果受参照物影响较大;吴鹏[11]提出了由萤火虫算法优化的最大熵阈值分割方法提高了图像分割的准确率和分割速度,但对于复杂背景图像分割效果不佳。基于图论的分割方法将待分割图像映射为一幅带权无向图,然后以求目标函数最优解的方式来完成图像分割过程;以GrabCut[12]算法为例,该算法可以根据图像RGB混合高斯模型结合用户交互实现分割,但该算法对背景比较复杂、背景和目标像素区别不大时的图像分割效果较差。基于聚类的分割算法是对图像中具有相似性质的像素进行聚类,并不断修正聚类结果以实现分割。如时颢等[13]提出将粒子群与K均值聚类算法相结合的棉花分割算法,取得了较好的效果,但在使用过程中需要迭代聚类中心影响算法应用时效性;黄帅[14]使用Markov随机场方法结合K均值聚类算法完成小麦叶部病害图像分割,但该方法中的Markov随机场势函数选定较为困难,增加了方法应用的难度。
基于分类的分割算法利用图像特征对分类器进行训练,使用训练后的分类器对图像中所有的像素进行分类从而完成图像分割。这类图像分割算法近年来发展较快,逐渐成为研究热点[15-20]。刘立波等[21]利用逻辑回归算法复杂背景的棉田冠层图像自适应分割。程晓龙等[22]将SVM算法应用于棉田冠层图像分割任务之中,效果较好。对这2篇研究成果进行分析可以发现,该类方法都是通过人为提取目标和背景的像素特征值进行研究的,研究受到人为限制,对棉田冠层可能出现的其他情况研究并不充分,泛化能力较差。
当前,深度学习技术的发展如火如荼,相关研究层出不穷。其中基于全卷积网络(fully convolutional networks,FCN)的图像分割算法因其可以针对任意大小的输入图像,实现端到端的像素分类,已成为解决图像分割问题的重要方法。如Long等[23]提出FCN网络结构,并应用于主流图像数据集,分割效果较好;但在实际应用中,基于FCN的图像分割算法存在只能处理单一尺度的图像目标以及物体细节结构丢失的弊端。此外基于条件随机场(conditional random fields,CRF)也可以实现图像分割[24-27]。与此同时,部分研究人员尝试将卷积神经网络与条件随机场结合,利用条件随机场模型来提高卷积神经网络对图像细节的描述能力[28-29]。Zhou等[30]将全卷积网络FCN与CRF相结合对自然场景图像进行分割,在分割过程中将CRF作为一个概率图用以描述图像细节信息,分割效果较好。对该研究成果进行分析可以发现,FCN与CRF相结合的图像分割算法可以实现精细化分割,并很好地解决了复杂背景干扰等问题。
本文针对自然场景下棉田冠层图像分割效果不佳的问题,提出基于FCN和CRF结合应用于棉田冠层图像分割方法,为冠层图像分割提供参考。
试验图像于2017年4月-7月在新疆第六师五家渠垦区棉花试验田进行采集,利用Cannon EOS60D数码相机随机采集自然环境情况不一的有效棉田冠层图像共625幅,每幅图像尺寸为1360×800像素,为降低分割难度,提升分割效率,本文使用的图像内容只包括一行棉田冠层目标区域。本文利用Photoshop对625幅棉田冠层图像进行人工分割,将图像中的背景像素标记为0,将图像中的棉田冠层区域像素标记为255,最终形成与原图像对应的棉田冠层二值掩模图像作为参考图像结果与原图像对应作为下一步研究的对象。
将625幅棉田冠层图像中随机挑选出375幅作为训练集,125幅作为验证集;125幅作为测试集;将训练集中的图像与对应的参考图像结果一同输入到分割模型中进行训练;利用验证集中的图像与其参考图像作为验证样本对模型参数进行调优;将测试集中的图像与其参考图像作为测试样本输入到调优后的模型结构中进行测试。为降低图像分割任务对计算机性能的要求,提高分割方法的处理效率,保证实际应用中分割方法的实时性,将数据集中图像统一变换为850×500像素,同时在实际应用中也将输入图像尺寸设定为850×500像素。
本文使用深度学习中的全卷积网络模型[23]实现棉田冠层图像分割,该网络经过多幅棉田冠层图像的训练,学习到多幅棉田冠层图像中冠层目标区域的图像特征,以此来从自然环境下的复杂背景中分割出棉田冠层目标区域,实现输入到输出的端到端棉田自然状态冠层图像分割。为提升全卷积网络的图像分割精度,模型利用条件随机场来对全卷积网络分割结果添加约束,利用图像像素的相邻像素来对该像素所属类别进行分析,使得图像分割结果细节更为明显。本文的图像分割算法具体流程如图1所示。主要过程描述如下:
图1 棉田冠层图像分割方法流程图Fig.1 Flow chart of image segmentation method for cotton canopy image
首先是采用FCN网络结构提取输入图像特征形成输入图像特征图,通过模型内部的得分层对特征图像素进行分类和反卷积操作得到图像分类结果,该分类结果也可以看做是初步分割结果;然后将初步分割结果中的每个图像像素以像素值和像素所属类别概率向量的形式输入CRF中,以像素对应所属类别概率向量作为CRF的一阶势结果,同时结合像素间关系计算二阶势函数值,将FCN和CRF组合形成改进的全卷积网络结构,并对其进行训练以提高模型的分割效果;接着通过验证集对改进的FCN网络模型进行参数调优;最后,利用具有最优参数的网络结构对所有测试图像样本进行分割,得到最终棉田冠层图像分割结果。
由于传统的FCN网络结构得到的图像分割结果一般比较粗糙,导致分割结果的物体边缘比较模糊。为解决这类问题,将粗糙的网络输出结果与浅层网络的输出结果按特定方式进行组合,从而将图像细节边缘特征与高层语义特征进行有机融合,得到更为精细的分割结果。利用该思想设计模型以图像上采样倍数32倍、16倍、8倍进行区分,出现了FCN-32s、FCN-16s、FCN-8s 3种FCN模型的变种。从提出FCN的经典文献[23]中可知,FCN-8s的分割结果精细度较高。而在本文中,由于棉田自然状态冠层图像中棉花冠层目标区域与背景区域区分较为复杂需要较为精细的分割结果,因此采用FCN-8s作为棉田冠层图像分割模型。
由于VGG16模型结构较深,模型感受野较小,对图像的细节把握更为精准,可提高图像分类效果。本文对VGG16网络[31]结构进行修改,提出棉田冠层图像分割全卷积网络模型。
首先本文将VGG16网络结构中的全连接层转换为卷积层,即将原有的fc6和fc7层结构转换为全卷积网络中的Conv6和Conv7,以此保证图像像素的位置信息。为实现图像像素恢复同时将图像像素分为2类,本文对原本的VGG16网络添加了反卷积层。反卷积层的基本操作是卷积操作的逆向操作,通过插值算法恢复图像尺寸,以保证输入图像和输出图像尺寸相当。随后为提高FCN输出分割结果的精度,降低分割结果像素分类错误率,本文设计跳层结构实现FCN-8s网络。具体来说在对得分层Score 2倍上采样之后,融合池化层 Pool 4结果,之后对融合结果fuse_pool 4进行2倍上采样后,融合池化层 Pool 3结果,最后对融合结果fuse_pool 3进行8倍上采样。
图2 棉田冠层图像分割改进全卷积网络结构Fig.2 Structure of improved fully convolutional networks for cotton canopy image segmentation
由于FCN-8s图像分割方法在提取图像特征时,存在信息丢失现象,图像特征图包含信息不全;而且在模型上采样过程中,特征图像素与输出结果像素之间的位置信息对应不准确,分割精度较差。为提高该分割方法的分割准确度,本文结合条件随机场的相关知识,以像素及像素的分类向量和像素之间的位置关系构建条件随机场的能量函数,提供像素之间的关系约束,从而提升FCN分割结果的精度。
条件随机场是一种判别式概率无向图模型,该模型将图像局部信息与图像内容上下文相结合以提高图像处理精度。条件随机场的能量函数E(Y,X)同时也是条件随机场训练的目标函数,主要是由一阶势函数φ1和二阶势函数φ2组成。在图像分割中,通过训练使CRF的能量最小化,使得图像中具有相似位置和颜色特征的像素较大概率分为同一个类别。
式中I表示图像中的所有像素的集合,xi为输入图像像素观测向量X={x1,x2,x3,……,xN}中的任意一个值,N为图像包含的像素个数。yi为输入图像像素标签类别向量Y={y1,y2,y3,……,yN}中的任意一个值,yj为输入图像像素邻近像素被划分的类别,e表示图像中xi与其邻域像素的集合。
条件随机场的重点是一阶势函数和二阶势函数的构建。众所周知,FCN输出结果可以看作是输入图像的每个像素分别属于不同类别的概率值,因此可以直接将FCN输出结果作为一阶势函数的输出值。二阶势函数主要是提供像素之间的约束,保证相邻像素可以较大概率地被标记为同一类别。当像素i和像素j取得不同标记时,利用惩罚函数计算惩罚值用于下一步计算。本文应用的二阶势函数可以表示为
式中Ii和Ij分别表示像素i和j的颜色特征向量,具体内容由像素i和j在RGB颜色空间中3个通道值组成是二范式,表示相邻像素颜色差异。相邻像素具体表示为像素的四邻域关系:上、下、左、右,将相邻像素融合在二元势函数中,因此能量函数中二阶势函数部分可以表示为
式中的Eup、Edown、Eleft、Eright代表像素i与像素i具有上、下、左、右相邻关系像素j的集合。
当模型结构确定之后,需要对模型进行训练更新模型参数,以提高模型性能。对于利用全卷积网络完成图像分割而言,该网络的目标就是输出一个分割精度较高、尺寸与输入图像相当的分割结果。为表征分割结果与标准结果的差异,本文通过计算图像中每一个像素分类向量与输入标准图像的对应像素分类向量的交叉熵来描述差异。交叉熵[23]一般表征神经网络输入与输出结果的差异,交叉熵越小,输入和输出结果就越接近。将每个像素的交叉熵取平均值计算最终的交叉熵结果,作为评价分割网络的损失函数值,则全卷积网络的损失函数为
式中N表示图像包含的像素个数,x表示输入图像观测向量X中每个像素的特征向量,p(x)为标准的像素分类向量,q(x)为FCN输出的像素份分类向量。当获取损失值后,利用反向传播算法[23]将图像损失传播到网络的每一层中,全卷积网络经过反向传播误差项的方式计算每一层网络权重的计算参数实现网络权值的更新。如此循环往复,直至输出误差项数值保持不变,稳定网络权重得到最优参数ω结束训练。
本文中的CRF模型通过极大化对数似然函数来进行训练获得最优参数θ,则目标函数为
而式(5)中的条件概率定义为
Z表示条件概率归一化因子。将CRF模型能量函数式(1)和式(6)代入目标函数式(5)中可得
因此CRF就需要结合由FCN生成的初步分割结果图像进行进一步优化。为描述方便,本文将经FCN模型的特征提取和融合过程得到FCN图像像素级分割结果表示为:(xi,f(xi,ω))(i=1,…N),f(xi,ω)表示像素经过参数为ω的FCN得到的分类标注结果,并将此像素级结果作为一阶势函数的输出,则式(8)表示为
使用梯度下降算法[23]迭代实现参数更新。在训练完成之后,CRF模型学习到性能最好的参数θ,FCN学习到性能最好的参数ω,将各自对应的最优参数θ和ω用Ω联合表示,得到以Ω为参数的改进全卷积网络模型用于图像分割。具体来说,对于测试图像X和标准分割结果Y,对应最有可能的像素标记结果Ŷ为
试验软件环境为Ubuntu 14.04 LTS,开发语言Python 2.7,硬件环境为Intel Xeon E5-2603 CPU 1.8 GHz,RAM为32 GB,GPU为NVIDIAQuadro k5000的PC机进行试验,深度学习开发框架为Chainer 1.24。
模型训练时采用批量训练的方式,将训练集375幅图片每5幅图片作为一个批次(batch)输入到模型中进行训练,数据集所有数据完成训练需要75个批次。本文为提高模型分割效果,训练模型时设定模型训练遍历数据集667轮,对应的训练迭代次数为50 000次。模型参数更新使用梯度下降算法和反向传播算法,学习率设定为1×10-10,同时设置动量(momentum)为0.99以防止出现过拟合现象。为更好地对比模型训练和验证过程,采用验证集应用上述设置进行试验。训练集和验证集的试验损失值变化曲线如图3所示。
可以看出,随着迭代次数的增加,训练集和验证集的损失值变化逐渐降低,而验证过程优化了模型参数提升了模型性能,损失函数变化较大使得损失值相对训练过程效果更优。当迭代到36 000次左右,模型对训练集和验证集的损失函数值变化趋于稳定相差不大,说明模型状态良好,在迭代到50 000次时,损失函数值基本收敛,表明模型达到了较好的训练结果。
图3 训练和验证损失函数变化曲线Fig.3 Training and validation loss function diagram
本文按照图2所示的网络结构,使用训练好的模型对棉田冠层图像进行分割。图4为模型第一卷积层的部分卷积核的卷积特征图输出结果。本图以模型第一卷积层为例,说明模型中各卷积层不同卷积核学习到的图像特征互不相同,各自关注于输入图像的各个部分,并对这些特征充分学习。同时该图也反映了网络模型中图像学习的局部感受野和权值共享的技术,为得到精细化的图像分割结果打下基础。
图4 模型第一卷积层特征图可视化Fig.4 Visualization of convolution features of proposal model
3.4.1 试验设计
为测试本文的性能,对测试集125幅自然环境下的棉田冠层图像采用传统的FCN-8s方法、Zoom-out[32]方法、CRFSasRNN[33](conditional random field as recurrent neural networks)分割方法、逻辑回归分割方法[21]、SVM分割方法[22]以及本文方法进行分割并分析。
3.4.2 评价指标
为量化描述本文方法对FCN图像分割方法的改进效果以及对比不同方法的分割性能,在此引入平均像素准确率[20](mean accuracy,Meanacc)和平均交并比[20](mean region intersection over union,Mean IU)来进行评价
式中的ncl表示待分割图像像素所属类别数,p表示某像素对应的正确像素类别,q表示某像素被错误分类后所属像素类别,tp标准分割结果中类别p的像素总数,npp表示分割结果中被正确标注为类别p的像素数量,nqp表示分割结果中像素本属于类别p却错误分类成类别q的像素数量。
考虑到方法的实际使用性能,本文利用平均处理时间来说明不同方法的时间性能。平均处理时间定义为某个分割方法对单幅图像分割所需时间的平均值。
3.4.3 结果与分析
各方法分割完成典型结果如图5所示,可以看出采用FCN-8s网络模型进行分割时错误分割现象明显;采用Zoom-out网络模型进行分割后得到的分割结果相比传统的FCN-8s分割方法分割结果更为准确和精细,但是该方法对于复杂棉田冠层图像区域分割精度较差,冠层边缘与背景区分不准确,分割效果一般;CRFasRNN分割效果较为不错,棉田冠层区域细节分割较为准确,但是该方法分割结果仍然存在一定的错误分割,精度还有提升的空间;从分割结果上看,逻辑回归分割方法和SVM分割方法分割效果较为类似,都较为准确地分割出图像中棉田冠层的整体区域,但由于经过了形态学方法的处理使得图像分割结果中的冠层边界较为平滑精细程度不够,而且部分较小的冠层区域也没有被区分出来;而本文方法通过FCN分割出图像的冠层区域,利用CRF对分割结果进行优化,在保证棉田冠层区域的整体性的同时精细化冠层边界,增强不同自然背景下图像分割结果中棉田冠层区域的完整性。本文将测试集125幅图像分别用不同分割方法所得的平均像素准确率和平均交并比求其均值以及平均处理时间,如表1所示。
图5 不同分割方法棉田冠层图像分割效果Fig.5 Segmentation effect for cotton canopy image with different image segmentation methods
从表1中可以看出,本文方法的平均像素准确率和平均交并比分别为83.24%和71.02%,较传统的FCN-8s网络分割方法分别提升了16.22和12.1个百分点,主要是由于方法对FCN进行了改进,充分利用图像信息;该方法与同样基于深度学习的Zoom-out分割方法和CRFasRNN分割方法在平均像素准确率上分别提升了4.56和1.69个百分点,在平均交并比上分别提升了7.23和0.83个百分点。
与近年来提出的逻辑回归以及SVM分割方法对比,平均像素准确率分别提升了3.29和4.01个百分点,平均交并比分别提升了2.69和3.55个百分点。因此本文方法的分割效果优秀,分割结果与标准结果最为接近,能够满足棉田自然状态冠层图像对分割结果精度的要求。即便如此,利用本文方法得到的棉田冠层图像分割结果的平均像素准确率和平均交并比仍较低。其原因是棉田冠层图像的目标区域边界非常复杂,土壤与冠层的边界和冠层叶片之间的边界都难以区分,错误分割现象较为常见,因此限制了图像分割算法的分割性能,使得图像分割结果量化指标较低。由此可知,本文方法分割棉田冠层图像精度较高,方法性能较好。
表1 不同方法分割棉田冠层图像的性能对比Table 1 Performance comparison of different methods for cotton canopy image segmentation
在处理速度方面,由于逻辑回归分割方法和SVM分割方法都需要对图像进行形态学等后处理操作,处理时间较长,单幅图像平均处理时间分别为0.85和0.98 s。这2种分割方法由于使用的是机器学习的思想,图像处理过程利用CPU进行计算,而其他方法由于在运行过程中都利用了GPU并行计算技术,大大缩短了处理时间,提高了处理效率。Zoom-out方法由于对每个卷积层结果都进行处理和融合,极大地影响的该方法的速度。CRFasRNN和本文方法都是利用FCN-8s为基本结构,对其进行不同方式的修改而实现的。CRFasRNN方法由于对CRF以RNN训练方法进行训练,训练过程较为复杂,从而降低了算法的运行效率。综合比较后发现,本文方法从时间性能上看还是更为适合于棉田冠层图像分割。
3.4.3 方法鲁棒性分析
为分析验证本文方法的鲁棒性,利用不同方法在测试集中选择具有背景复杂(如背景存在地膜、土壤)、冠层区域复杂(如叶片存在遮挡)、光照条件复杂(如部分冠层区域对比度差)条件的图像各20幅共计60幅图像进行鲁棒性对比试验,选取其中典型的图像分割结果展示如图6所示。表2为不同环境下分割性能参数。
图6 不同分割方法对复杂环境下棉田冠层图像分割效果Fig.6 Segmentation effect of different image segmentation methods for cotton canopy image under complex environment
从图6可以发现,在背景复杂的自然环境下,本文方法可以有效分割棉田冠层区域,几乎不受环境的影响。其中CRFasRNN分割方法出现较明显的错误分割现象,且冠层区域边界较为模糊;在冠层区域复杂的自然环境下,各个方法分割效果差距不大,逻辑回归方法分割结果的精细度不高,SVM方法存在一定的错误分割现象;在光照条件复杂的自然环境下,不同方法分割结果之间的差距较为明显。其中Zoom-out方法分割结果错失了较小的棉田冠层区域,逻辑回归算法分割结果精细度较低,SVM方法分割结果中对图像中的低亮像素分割性能较差;CRFasRNN方法分割精度较高,但和本文方法对比仍然存在一些差距。不难看出,本文分割方法能够有效分割出不同条件下的棉田冠层区域,分割效果受自然条件影响较小,稳定性高,显示出该方法鲁棒性好,满足实际棉田生长状态监测需求。
从表2中可以看出,本文方法在不同环境下的分割结果稳定性最佳,平均像素准确率最大值与最小值间的差值仅为1.07%,平均交并比最大值与最小值间的差值仅为2.08%。与之相比,基于深度学习的分割方法Zoom-out和CRFasRNN分割结果稳定性最差,基于机器学习的分割方法逻辑回归方法和SVM方法分割稳定性一般。究其原因,部分基于深度学习的分割方法虽然将所有图像信息进行了学习,但是在分割过程中对特定图像信息利用程度较差,因此分割效果稳定性差;而近年来提出的分割方法虽然能学习到的图像信息较少,但由于方法直接应用在棉田冠层图像分割中针对性较强,因而分割效果稳定性有所提高;本文方法对基于深度学习的图像分割方法进行了改进,提高了图像信息的利用程度,方法学习到了图像的细节信息,因此分割稳定性高。由此看来,本文方法能在不同自然环境下较为准确地分割出目标区域,从另一角度说明本文方法鲁棒性较高。
表2 不同分割方法对复杂环境下棉田冠层图像分割性能对比Table 2 Performance comparison of segmentation result with different image segmentation methods for cotton canopy image under complex environment
1)针对棉田冠层生长状态监测的需求,提出了一种基于全卷积网络和条件随机场的棉田冠层图像分割方法,采用全卷积网络对图像特征进行提取得到初步的分割结果,构建条件随机场对初步分割结果进行优化,提高分割结果精度,加强该方法的环境自适应能力。
2)本文提出的图像分割方法的平均像素准确率为83.24%,平均交并比为71.02%,2种评价指标较传统的FCN-8s分割方法分别提升了16.22个百分点和12.1个百分点,相对于Zoom-out以及CRFasRNN方法也有一定的改进,精度提升效果较为明显。和原有基于逻辑回归和SVM算法的棉田冠层图像分割方法相比,本文方法在平均像素准确率方面分别提升了3.29和4.01个百分点,在平均交并比方面分别提升了2.69和3.55个百分点。在分割处理时间方面,本文方法分割一幅棉田冠层图像达到平均0.33 s,满足棉田生长状态监测所提出的单幅图片处理时间达到0.5 s以内的实时性要求。
3)本文方法在背景复杂、冠层区域复杂、光照条件复杂等非结构环境下可以准确地分割出棉田冠层区域,解决了常规方法存在自适应性不强的问题,具有较好的鲁棒性。
本文提出的图像分割方法分割结果精度高、鲁棒性好,对自动化监测棉花生长状态提供了技术保障。但是本文方法所研究的对象只是棉花冠层区域,没有对该区域中的阴影部分和光照部分进行区分。而且在大密度棉花植株的实际场景中,环境的变化、植株之间的粘连和遮挡,都会给棉田冠层精准分割带来巨大的挑战,需要进一步深入研究。
[1]高理文,林小桦.基于L*a*b*彩色空间和局域动态阈值的药用植物叶片图像分割[J].计算机应用与软件,2014,31(1):233-235.Gao Liwen,Lin Xiaohua.Segmentation of imagesof medicinal plant leaves based on L*a*b*color space and local dynamic threshold[J].Computer Applications and Software,2014,31(1):233-235.(in Chinese with English abstract)
[2]Shi Jianbo, Malik J.Normalized cuts and image segmentation[J].IEEE Transon Pattern Analysis and Machine Intelligence,2000,22(8):888-905.
[3]Li Zhengqin,Chen Jiansheng.Superpixel segmentation using linear spectral clustering[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition:IEEE Press 2015:1356-1363.
[4]Achanta R,Shaji A,Smith K.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2012,34(11):2274-2282.
[5]徐伟悦,田光兆,姬长英,等.自然场景下苹果图像FSLIC超像素分割方法[J].农业机械学报,2016,47(9):1-10.Xu Weiyue,Tian Guangzhao,Ji Changying,et al.FSLIC superpixel segmentation algorithm for apple image in natural scene[J].Transactions of the Chinese Society for Agricultural Machinery,2016,47(9):1-10.(in Chinese with English abstract)
[6]杨信廷,孙文娟,李明,等.基于K均值聚类和开闭交替滤波的黄瓜叶片水滴荧光图像分割[J].农业工程学报,2016,32(17):136-143.Yang Xinting,Sun Wenjuan,Li Ming,et al.Water droplets fluorescence image segmentation of cucumber leaves based on K-means clutering with opening and closing alternately filtering[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2016,32(17):136-143.(in Chinese with English abstract)
[7]Deshpande T,Sengupta S,Raghuvanshi K S.Grading and identification of disease in pomegranate leaf and fruit[J].International Journal of Computer Science and Information Technologies,2014,5(3):4368-4645.
[8]周俊,王明军,邵乔林.农田图像绿色植物自适应分割方法[J].农业工程学报,2013,29(18):163-170.Zhou Jun,Wang Mingjun,Shao Qiaolin.Adaptive segmentation of field image for green plants[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2013,29(18):163-170.(in Chinese with English abstract)
[9]Wang Xiangyang,Wu Zhifang,Chen Liang,et al.Pixel classification based on color image segmentation using quaternion exponent moments[J].Neural Netsworks,2016,74:1-13.
[10]王璇,张帆,程京.基于改进最大类间方差法的灰度图像分割[J].微计算机信息,2010,26(35):206-207.Wang Xuan,Zhang Fan,Cheng Jing.Improved OTSU method on gray level image segmentation[J].Microcomputer Information,2010,26(35):206-207.(in Chinese with English abstract)
[11]吴鹏.萤火虫算法优化最大熵的图像分割方法[J].计算机工程与应用,2014,50(12):115-119.Wu Peng.Image segmentation method based on firefly algorithm andmaximum entropymethod[J].Computer Engineering and Applications,2014,50(12):115-119.(in Chinese with English abstract)
[12]Tang M,Gorelick L,Veksler O,et al.GrabCut in One Cut[C]//Proceeding of the 2013 International Conference on Computer Vision.Sydney:IEEE,2013:1769-1776.
[13]时颢,赖惠成,覃锡忠.粒子群与K均值混合聚类的棉花图像分割算法[J].计算机工程与应用,2013,49(21):226-229.Shi Hao,Lai Huicheng,Qin Xizhong.Image segmentation algorithm of cotton based on PSO and K-means hybrid clustering[J].Computer Engineering and Applications,2013,49(21):226-229.(in Chinese with English abstract)
[14]黄帅.基于Markov随机场和K均值聚类的小麦叶部病害图像分割[D].合肥:安徽农业大学,2015.Huang Shuai.The Image Segmentation for Wheat Leaf Disease Base on Markov Random Field and K-means Clustering[D].Hefei:Anhui Agricultural University,2015.(in Chinese with English abstract)
[15]张云龙,齐国红,张晴晴.基于SVM的复杂环境下苹果图像的分割[J].智能计算机与应用,2017,7(1):14-16.Zhang Yunlong, Qi Guohong, Zhang Qingqing.Segmentating apple image from complicated environment based on SVM[J].Intelligent Computer and Applications,2017,7(1):14-16.(in Chinese with English abstract)
[16]王献锋,王震,王旭启,等.基于SVM和形态学的作物病斑图像分割方法[J].吉林农业科学,2015,40(1):51-53,60.Wang Xianfeng,Wang Zhen,Wang Xuqi,et al.Crop spot image segmentation based on SVM and morphology[J].Journal of Jilin Agricultural Sciences,2015,40(1):51-53,60.(in Chinese with English abstract)
[17]He Z,Shen Y,Zhang M,et al.Spectral-spatial hyperspectral image classification via SVM and superpixel segmentation[C]// Instrumentation and Measurement Technology Conference,2014:422-427.
[18]Bai X,Wang W.Saliency-SVM:An antomatic approach for image segmentation[J].Neurocomputing,2014,136:243-255.
[19]SenyukovaO V.Segmentation ofblurred objectsby classification of isolabel contours[J].Pattern Recognition,2014,47(12):3881-3889.
[20]Dai J,He K,Sun J.Instance-aware semantic segmentation via multi-task network cascades[C]//IEEE Conference on Computer Vision and Pattern Recognition,2015:3431-3440.
[21]刘立波,程晓龙,戴建国,等.基于逻辑回归算法的复杂背景棉田冠层图像自适应分割[J].农业工程学报,2017,33(12):201-208.Liu Libo,Cheng Xiaolong,Dai Jianguo,et al.Adaptive threshold segmentation for cotton canopy image in complex background based on logitstic regression algorithm[J].Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE),2017,33(12):201-208.(in Chinese with English abstract)
[22]程晓龙,刘立波.基于SVM的棉田冠层图像分割方法研究[J].农业科学研究,2017,38(3):8-10.Cheng Xiaolong,Liu Libo.The research on SVM segmentation method for cotton canopy image[J].Journal of Agricultural Sciences,2017,38(3):8-10.(in Chinese with English abstract)
[23]Long J,Shelhamer E,Darrell T,et al.Fully convolutional networks for semantic segmentation[C]//Proceeding of the 2015 Computer Vision and Pattern Recognition.Boston:IEEE,2013:3431-3440.
[24]Shotton J,Winn J,Rother C,et al.Textonboost:Joint appearance,shape and context modeling for multi-class object recognition and segmentation[C]//Proceedings of the 9th European Conference on Computer Vision.Berlin,Germany:Springer,2006:1-15.
[25]Zhong Ping,Wang Runsheng.Modeling and classifying hyperspectral imagery by CRFs with sparse higher order potentials[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(2):688-705.
[26]Mustafa G U,Chao C,Dimitris M.An efficient conditional random field approach for interactive neuron segmentation[J].Medical Image Anglysis,2016,27:31-44.
[27]马浚诚,温皓杰,李鑫星,等.基于图像处理的温室黄瓜霜霉病诊断系统[J].农业机械学报,2017,48(2):196-202.Ma Juncheng,Wen Haojie,Li Xinxing,et al.Downy mildew diagnosis system for greenhouse cucumbers based on image processing[J].Transactionsofthe Chinese Society for Agricultural Machinery,2017,48(2):196-202.(in Chinese with English abstract)
[28]Chen L,Papandreou G,Kokkinos I,et al.Semantic image segmentation with deep convolutionalnets and fully connected CRFs[J].Computer Science,2014(4):357-361.
[29]Vemulapalli R,Tuzel O,Liu M,et al.Gaussian conditional random field network for semantic segmentation[C]//Proceeding of the 2016 Computer Vision and Pattern Recognition.Las Vegas:IEEE,2016:3224-3233.
[30]Zhou H,Zhang J,Lei J,et al.Image semantic segmentation based on FCN-CRF model[C]//Proceeding of the 2016 International Conference on Image Vision and Computing Postsmouth:IEEE,2016:9-14.
[31]Simonyan K,Zisserman A.Very deep convolutional networks for large-scale image recognition[C]//International Conference on Learning Representations,2014:1-14.
[32]Mostajabi M,Yadollahpour P,Shakhnarovich G.Feedforward semantic segmentation with zoom-out features [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2015:3376-3385.
[33]Zheng S,Jayasumana S,Romeraparedes B,et al.Conditional random fields as recurrent neural networks[C]//Processings of the IEEE International Conference on Computer Vision,2015:1529-1537.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!