基于蚁群优化算法的弱光图像显著性目标检测

2021-11-05 01:29汪虹余张彧杨恒穆楠
计算机应用 2021年10期
关键词:弱光集上显著性

汪虹余,张彧,杨恒,穆楠

(四川师范大学计算机科学学院,成都 610101)

0 引言

显著性目标检测旨在模拟人类视觉系统,自动过滤掉图像或视频中的冗余的背景信息,准确地提取出与人类视觉感知一致的最感兴趣区域。显著性目标检测可以作为各类计算机视觉任务的预处理,能够广泛用于目标识别[1]、视觉追踪[2]、图像检索[3]、行人重识别[4]等领域。尽管在各种复杂场景下显著性目标的定位工作已经取得了初步进展,但在弱光条件下如何准确检测显著性目标仍然是一个具有挑战性的问题。其主要原因可归结为以下3个方面:1)视觉特征在弱光条件下的适应性变差;2)弱光环境造成有效显著性信息严重缺失;3)弱光条件中的图像噪声和杂乱背景对目标检测具有强烈干扰。

处理这些问题的核心在于如何提取弱光场景中可用的视觉特征以及如何测得最佳对比度值,从而将显著性物体从弱光背景中分离出来。大多数传统的显著性检测模型都依赖于探索对比度线索,通过该线索确定图像像素、超像素或区域相对于其局部邻域或全局邻域的差异性。Itti等[5]提出了第一个基于局部对比度的显著性检测模型,通过评估图像块多尺度特征的差异度来测量块的显著值;Zhang等[6]考虑了不同的空间布局和尺度变化,并提出了一种多尺度和多区域机制来生成局部显著图;Jian 等[7]提出了一种有效的局部颜色对比方法,该方法足以突出显示并从复杂的背景中分离出显著的对象;杨小冈等[8]基于局部特征综合法设计了一种基于概率框架的多特征融合显著性检测算法来提升检测的准确率。这些基于局部对比度的显著性检测方法倾向于在目标轮廓的周围产生较高的显著值。相比而言,基于全局对比度的显著性模型能够产生具有均匀内部结构的显著性图。Wu 等[9]设计了一个上下文模块,该模块受感受野块(Receptive Field Block,RFB)的启发,以捕获全局对比度信息;Wang 等[10]提出了金字塔注意模块,该模块为相应的卷积层分配了具有更广感受野的全局视图;Zhao 等[11]提出了一种新颖的卷积神经网络(Convolutional Neural Network,CNN),称为金字塔特征注意网络(Pyramid Feature Attention Network,PFAN),以增强高级上下文特征和低级空间结构特征。这些全局显著性检测方法的耗时相对较少,同时获得了比较可靠的检测结果。杨兴明等[12]在联合局部线索和全局线索的基础上,采用多尺度的超像素分割,研究不同尺度下轮廓线索和外观线索的互补特性,实现了目标的显著性检测;凌艳等[13]使用多尺度的上下文信息增强局部特征,并结合边界损失、类平衡损失和难分类损失,以局部-全局融合的方式实现显著目标检测;纪超等[14]从局部到精细,结合局部和全局上下文的深度环境信息得到显著目标。这些局部和全局相结合的显著性检测方法更有效地实现了对显著目标的判别,得到了更完整的显著性目标,但在弱光条件下,这些模型容易对那些与显著目标相似的背景区域产生误判。

在分析了现有显著线索的优点和局限性之后,本研究发现要准确地检测出弱光图像中的显著性目标,需要解决以下两个主要问题:1)提取有效的视觉特征来表征弱光图像;2)探索最优对比度信息用以分析显著性目标的特性。为了解决这些问题,本研究进行了大量的工作,并从以下两个方面来解决:1)探索特征图的熵信息来自适应地选择出最优视觉特征,2)提出蚁群优化(Ant Colony Optimization,ACO)算法,用于搜索图像区域的最优邻域。

ACO 算法最早由Dorigo 等[15]提出,主要利用已有较优解的后验信息来获取有希望成为解的先验信息,其在图像处理领域如图像分割[16]、图像上采样[17]、图像分类[18]等任务上取得了较好的结果。鉴于此,本文提出了一种基于ACO 算法的弱光图像显著目标检测模型,模型的架构如图1所示。

图1 基于ACO算法的显著目标检测模型框架Fig.1 Framework of ACO algorithm based salient object detection model

首先,利用多尺度超像素分割构建图像模型;其次,通过求取不同特征图的一维熵来自适应地选择出各类弱光图像的最优视觉特征;然后,综合全局对比度和空间关系线索,生成弱光图像的初始显著图;最后,采用蚁群优化算法对显著性结果进行优化。本文将提出的显著性检测模型在3 个基准数据集[19-21]以及所提出的弱光图像数据集(本文使用的弱光图像数据集的下载地址为https://drive.google.com/open?id=0BwVQK2zsuAQwX2hXbnc3ZVMzejQ)上进行了广泛的性能评估,实验结果表明本文所提显著性模型的性能优于现有的一些先进的显著性模型。

1 基于蚁群优化算法的显著性模型

1.1 基于多尺度超像素的图模型构造

对于给定的图像,首先利用简单线性迭代聚类算法[18]将其分割为N个超像素(表示为{si}),这样可以极大地保持目标的内部结构信息。本文将超像素的个数N分别设置为100、200、300,生成3 种不同尺度的超像素。根据超像素来构建具有N个节点的图模型Graph=(Vn,E),其中Vn和E分别表示节点集合和边集合。Graph中的节点Vn可以看作是蚁群算法中的蚂蚁,每个蚂蚁的运动轨迹被定义为相应节点的关联边E。当蚂蚁在图模型上爬行时,信息素就沉积在了图模型的节点上,这些信息素的数量通过蒸发和衰减策略得以更新。

1.2 最优特征选择

构造蚁群算法的启发式矩阵主要通过提取图模型各节点的低层视觉特征来实现。由于图像特征的有效性随着光照条件的变化而产生巨大差异,因此可以引入自适应特征选择策略来选出最优解。本文通过以下方式提取图像的12 个手工特征,主要包括:

1)9 个颜色特征。首先,对输入图像进行归一化,以消除阴影和不均匀光照的干扰。然后,将输入的RGB 图像分别转换到LAB、HSV和YcbCr颜色空间并从中提取得到9个颜色特征(表示为L、A、B、H、S、V、Y、Cb和Cr)。LAB 颜色空间的L、A和B 分量能够描述人眼可见的所有颜色,这些颜色更加接近人眼对弱光图像的感知;HSV 颜色空间的H、S 和V 分量可以非常直观地表示色调,深度和明亮度,在亮度较低的弱光图像中具有良好的适应性;YCbCr颜色空间中的Y、Cb和Cr分量可以更好地感知强度变化以及色差,这将更有助于在弱光图像中突出显著目标的整体信息。

2)纹理特征(表示为T)。本文利用输入图像的二维熵来表示纹理特征,这主要基于二维熵具有很强的抗几何形变和抗背景噪声的能力。令I(0 ≤I≤255)表示图像像素的灰度值,J(0 ≤J≤255)表示其邻域像素的平均灰度值,则灰度分布的空间合成特性可以表示为:

式中:f(I,J)表示特征组(I,J)的频率,R2表示邻域的尺寸。输入图像的离散二维熵可以定义为:

3)方向特征(表示为O)。在灰度图像gray(x,y)上,利用角度θ∈{0°,45°,90°,135°}四个不同方向上(表示为gθ(x,y))的Gabor 滤波器提取得到具有旋转不变性和全局性的方向特征,从而减少了弱光对方向特征的影响。

4)梯度特征(表示为G)。通过在水平梯度和垂直梯度上求平均可以计算得到梯度特征,用以描述局部灰度值的幅度变化,能有效对抗弱光的影响,具有较好的适应性。

通过以上方式计算得到输入图像的12 个特征图之后进一步求取12个特征图的一维熵,计算方式如下所示:

其中pI表示值为I的像素所占的比率。由于一维图像熵代表了图像灰度分布的聚集特征所包含的信息量,因此每个视觉特征的有效性都可以用熵值来衡量。

最后,本文通过对12 个特征图的一维熵值进行排序选择出9 个最优特征(表示为{Fk},k=1,2,…,9),可以降低对显著目标表达能力较差的特征中冗余信息的干扰,确保特征更有针对性地处理弱光图像显著性。

1.3 基于蚁群算法的全局优化

显著性检测可以看作是一项独特的滤波任务,目的是将前景目标从背景区域中分离出来。为了从图像中区分出显著目标,主要策略是使用对比度信息来测量前景与其周围背景之间的差异程度。本文主要通过计算全局对比度和空间关系来评估每个超像素的显著性值,计算方式如下:

其中pos(si,sj)表示超像素si与sj之间的距离。坐标(xi,yi)与图像中心(x′,y′)之间的空间距离c(si)可通过以下公式计算:

其中vx和vy表示两个变量,主要由图像的水平和垂直信息所决定。

通过测量所有N个超像素的显著性值可以生成图像的显著图,本文使用Otsu 的阈值方法[19]将显著图分为两个部分:粗糙的显著区域(前景种子)和非显著区域(背景种子)。至此,本文通过计算全局对比度和空间相关性生成了弱光图像的初始显著图。

为了进一步优化超像素si的显著值,本文利用ACO 算法从si的相邻超像素区域(表示为{sj},j=1,2,…,M(i))中搜索出与si最相似的区域。基于ACO算法搜索最相似区域的详细过程如下:

1)初始化。基于图模型,将m只蚂蚁散布在随机选择的节点上,找到si的最佳关联超像素。两个超像素si和sj之间的距离(表示为dij)定义为:

其中:m表示蚂蚁的维数,|⋅|表示欧几里得距离,wk表示权重因子。

2)构造。令r表示簇半径,Iij(t)表示在时间t内从si到si的路径上信息素的含量,其计算公式为:

令(t)表示蚂蚁k选择从节点si到节点sj的路径的概率,该概率可以通过以下方式获得:

其中:ηij=1/dij表示蚂蚁选择从节点si到节点sj的期望;参数α表示信息对当前路径的影响程度;参数β控制启发信息ηij对路径选择的影响程度。Ω(si)={sj|dij≤r,j=1,2,…,M(i)}指当前节点si邻域可选节点的集合。

3)更新。在蚂蚁移动的过程中,每条路径上剩余的信息量将发生变化。循环完成后,路径上的信息素内容将更新如下:

其中:ρ表示信息素随时间的蒸发速率;ΔIij=表示循环结束时,m只蚂蚁从节点si到节点sj的信息素增量。

4)决策。在m个蚂蚁移动结束之后,信息素矩阵更新为:

其中:φ∈[0,1]表示信息素衰减参数;Iij(0)表示第一次循环的信息素矩阵;n表示步骤2和步骤3的迭代总数。

其中:Oj是蚂蚁食物的来源,为si的最优邻域。然后,通过式(6)可以将si的最佳显著值计算为si和最优邻域Oj之间的差值。最终,测量所有超像素的显著值即可生成最终的显著图。

基于蚂蚁觅食过程中借助信息素的传递和交流来自主选择最优觅食路径的正反馈机制,蚁群算法主要以信息素的更新和概率转移等操作来指导搜索方向。这种策略使得本文模型能够准确找出超像素si的最优邻域,从而进一步计算得到si的最优显著值。由于该过程主要基于信息素更新,对光照等变化不敏感且能够很好抑制弱光图像中的噪声干扰,有效提高了检测的准确性。因此,基于蚁群算法的全局优化更加适合于弱光图像的显著性检测。

2 实验结果

本文在4 个数据集上进行了广泛的实验,通过和11 个具有竞争性的显著性模型进行比较来评估本文所提出模型的性能。

2.1 实验设置

为了证明本文模型能够在自然光场景、复杂场景和弱光场景中都能获得优异的性能。进行实验测试的4个数据集包括:1)MSRA 数据集[15],其中包含10 000 张图像,大多数图像中仅有单个目标且图像具有良好的照明条件;2)CSSD数据集[22],其中包含各种复杂结构的自然场景图像;3)PASCAL-S数据集[23],其中包含背景混乱的各类图像;4)弱光图像(Nighttime Image,NI)数据集,其中包含200 个分辨率为640×480 的夜间图像和与之匹配的像素级基准图像(Ground Truth,GT)。

与本文方法作对比的11 个先进的显著性检测模型包括:非参数(Non-Parametric,NP)模型[24]、上下文感知(Context-Aware,CA)模型[25]、低秩矩阵恢复(Low Rank Matrix Recovery,LR)模型[26]、块差异性(Patch Distinction,PD)模型[27]、流形排序(Manifold Ranking,MR)模型[28]、显著优化(Saliency Optimization,SO)模型[29]、引导学习(Bootstrap Learning,BL)模型[30]、通用推广(Generic Promotion,GP)模型[31]、空间色彩上下文(Spatiochromatic Context,SC)模 型[32]、结构化矩阵分解(Structured Matrix Decomposition,SMD)模型[33]和多示例学习(Multiple Instance Learning,MIL)模型[34]。为了比较这些不同显著性算法的有效性和准确性,实验中使用了8个指标,包括:

1)PR(Precision-Recall)曲线。该指标主要是通过使用不同的阈值对生成的显著图进行二值化并比较其与GT 之间的差异来测得,精确率(Precision,P)定义为正确检测到的显著像素占二值显著图中所有显著像素的比率,召回率(Recall,R)的定义为正确检测到的显著像素占GT 中所有显著像素的比率,计算方法如下:

式中:真阳性(True Positive,TP)是正确识别为显著目标的像素集合;假阳性(False Positive,FP)是错误识别为显著目标的像素集合;假阴性(False Negative,FN)是错误识别为非显著区域的像素集合。

2)真阳性率和假阳性率(True Positive Rate-False Positive Rate,TPR-FPR)曲线。TPR的计算类似于召回率,FPR的计算为错误检测到的显著像素占GT中所有非显著像素的比率,计算方法如下:

其中:真阴性(True Negative,TN)是正确识别为非显著区域的像素集合。

3)F-measure 曲线,主要通过测量精确率和召回率的加权调和平均值获得,计算方法如下:

式中β2为衡量精确率和召回率的参数。由于准确率的重要性通常比召回率要高,研究中通常将β2的取值定为0.3 来强调准确率。

4)曲线下面积(Area Under the Curve,AUC)取值,其计算为TPR-FPR 曲线下面积所占的百分比。AUC 的取值一般在0.5~1.0,AUC 越接近于1,就表明检测的准确性越高。AUC值能够直观地表明显著图预测真实显著目标的优劣。

5)平均绝对误差(Mean Absolute Error,MAE)取值,其定义为生成的显著性图和GT 之间的差异。MAE 的取值越小,就表明生成的显著图(记为Salmap(x,y))和基准显著图(记为GT(x,y))之间的相似度越高,计算方法如下:

6)加权F-measure(Weighted F-measure,WF)取值,通过在F-measure上增加权重来计算。

7)重叠率(Overlapping Ratio,OR)取值,通过衡量二值显著图(记为BS(x,y))与基准显著图GT(x,y)之间的重叠率来计算:

OR 指标主要考虑显著像素的完整性和非显著像素的正确性。

8)测试每张图像的平均执行时间(单位:秒)。所有实验都是在Intel i5-5250 CPU(1.6 GHz)和8 GB RAM 的标准计算机上进行,主要的编程环境为Matlab。

2.2 客观性能分析

在4 个数据集上不同显著性检测模型的PR 曲线、TPRFPR 曲线和F-measure 曲线如图2 所示。可以看出,本文模型的性能优于其他作对比的显著模型。在MSRA 数据集、CSSD数据集、PASCAL-S 数据集上,本文模型在三条曲线上的性能优于绝大多数先进模型,说明本文模型性能得到了显著提升,并且在多个数据集上都能保持优秀且稳定的性能。在具有挑战性的NI 数据集上,三条曲线的性能均有明显下降,而本文模型的性能相比其他模型而言表现依旧良好,更加鲁棒。

图2 四个数据集上各种显著性检测模型的PR、TPR-FPR和F-measure曲线Fig.2 PR,TPR-FPR and F-measure curves of various saliency detection models on four datasets

表1 列出了各种模型的AUC 取值,MAE 取值,WF 取值,OR取值和时间消耗。排名前三的结果分别用下划线、斜体和加粗字体表示,其中:↑表示值越大,检测结果越好;↓则表示值越小,检测性能越好。从表1 中可以看出,本文模型在3 个可见光数据集上都具有很强的竞争力,且在弱光数据集上的性能要明显优于其他数据集。

表1 在四个数据集上各显著模型的定量性能比较Tab.1 The quantitative performance comparisons of various saliency models on the four datasets

对于MSRA 数据集而言,图像要相对简单一些。本文模型取得了最高的AUC 值和OR 值,模型的MAE 值和OR 值比基于全局优化的SO 模型和基于多实例学习的MIL 模型稍微逊色。在CSSD数据集上,本文模型的AUC值、WF值、MAE值和OR 值仅排第2 名和第3 名,比SMD 模型的排名相对要低。这是因为SMD 算法基于结构化矩阵分解,其在复杂场景中具有优势。在PASCAL-S 数据集上,本文模型取得了最佳AUC值、MAE 值和OR 值,并且WF 值排名第2,仅比SO 模型相差0.99 个百分点。在NI 数据集上,本文模型的AUC 值,WF 值,MAE 值和OR 值均排名第1,这意味本文模型更适应具有低对比度、低信噪比的弱光图像,应用场景更加广泛,因此本文模型具有较高的鲁棒性,可以在丰富多样的复杂场景中保持优越的性能。此外,从各个数据集上的测试结果来看,本文模型在自然光场景、复杂场景和弱光场景上都能取得优异的性能,这也说明本文的模型不只是满足于单一的应用场景,而是能 鲁棒地适应于具有挑战性的不同场景。

2.3 算法的时间复杂度分析

蚁群算法在处理较大规模的组合优化问题时,运算量较大、耗时较长,造成时间复杂度较高。此外,对于单个蚂蚁而言,当群体规模较大时,很难在较短的时间内从杂乱无章的路径中找到一条较好的路径。本文蚁群算法计算规模为当前节点si邻域节点集合Ω(si)={sj|dij≤r,j=1,2,…,M(i)},相对而言规模不大且易于搜索。本节将从时间复杂度和空间复杂度两个方面来分析本文基于蚁群算法的显著性检测复杂性。对于算法的时间复杂度而言,主要指在求解问题时,所有算法中最小的时间复杂性;对于算法的空间复杂度而言,主要指在求解问题时,所有算法中最小的空间复杂性。

2.3.1 时间复杂度

①当蚁群算法中蚂蚁的数目m=1 时,本文称只有一只蚂蚁的蚁群优化显著性检测(Ant Colony Optimization Saliency Detection,ACOSD)算法为ACOSD-1。

设XACOSD⁃1(t)为算法对应的随机过程,在t+1 时刻的信息素率的期望为E{Iij(t+1)XACOSD⁃1(t)},假设函数ψ(i,t)为关于变量i,t的函数,则:

由式(19)可知,E{Iij(t+1)XACOSD⁃1(t)}与Iij(t)成正比,根据信息素的概念得知Iij(t)与信息素增量函数μ也是成正比关系,因此可以得出E{Iij(t+1)XACOSD⁃1(t)}与信息素增量函数μ成正比。

若ψ(i,t) ≥ψ>0,则:

ACOSD-1的期望收敛时间为:

由式(22)可知,ACOSD-1 算法的时间复杂度会随着问题规模的增大而不断增大。

②当蚁群算法中蚂蚁的数目m≥1 时,称该显著性检测算法为ACOSD-2。

当存在多只蚂蚁时,在算法迭代过程中,这m只蚂蚁单独地作用于信息素矩阵且分别对各自路径上的信息素进行更新。

对于ACOSD-2算法,求解所需的期望收敛时间为:

由式(24)可知,增加蚂蚁数目会减少算法的期望收敛时间,也即减小算法的时间复杂度。

2.3.2 空间复杂度

对于m只蚂蚁,在问题规模为M(i)的邻域中选择si的最优邻域,蚁群算法所需要的内存开销如表2所示。

表2 本文的蚁群算法所需要的空间开销Tab.2 Spatial overhead required by ant colony algorithm in this paper

通过对蚁群优化算法的各个步骤进行分析,可以得到算法的空间复杂度为Ο(M(i)2)+Ο(mM(i))。从表1 的时间性能方面来看,本文的算法相对来说是比较实时的。CA、LR、SC 和MIL 模型在4 个数据集上的执行时间都普遍偏长,提取每幅图像中显著目标所消耗的时间都需要20 s 以上,整体效率偏低,其中MIL 模型在每个数据集上的平均时间消耗都达到了100 s以上,这主要是因为MIL 模型将所有像素都归类完后,再进一步得到K个超像素,通过更新聚类中心不断迭代,如此反复直到收敛的迭代过程大大增加了计算复杂性。对于CA 模型,其将图像中每个像素点的颜色特征进行了全局对比度计算,因此时间复杂度会非常高。LR 模型将图像分割成很多较小的段,再用每个段中所有特征向量的均值来表示这个段,进而构造矩阵,而每个段的特征一共53 维,使得计算时间明显增加。SC 模型通过获取颜色域的全局空间能量响应和边界显著度来集成颜色显著性,为每个像素分别生成区域和边界显著值,这样的像素级全局运算使得模型的复杂度偏高。此外,CA、LR和PD模型在PASCAL-S数据集和NI数据集的时间消耗明显增加,这是由于NI 数据集和PASCAL-S 数据集中图像的分辨率都比较高,而这些模型基于全局计算的步骤在图像分辨率较高时造成计算复杂度显著增加,因此时间性能格外差。虽然本文模型的计算复杂度略高于基于超像素的模型SO 和GP,但本文模型可以得到更精确的估计。尽管本文模型也采用了全局对比度计算,不同的是本文首先将原始图像分成若干个超像素块,并用它来代替图像像素参与计算,很大程度上减少了算法所需的计算量。另外,本文模型的时间性能相对逊色于SO 和MR 模型,但对于显著目标检测的准确率均优于这些模型。总的来说,本文模型采用全局搜索能够明显提升图像显著性检测的性能,而其时间消耗的上升仍在可接受范围,可以满足弱光图像实时显著性检测的需求。相较于NP、CA、LR、PD、BL 和GP 模型在弱光数据集NI 上的计算时间都显著增加,本文的模型在弱光数据集上的时间性能依然能保持良好稳定的性能。本文提出的模型作为图像处理任务的预处理方法,其执行时间最长在12.102 s左右,在弱光数据集上这样的速度已经超越了目前大部分的先进模型,但在实际需求中还有一定的上升空间。作为显著性检测模型,除了具有较高的计算效率,能快速检测出显著区域之外,准确的检测性能也是必不可少的,同时应避免对实际显著区域的漏检和错误地将背景标注为显著区域。

2.4 算法的鲁棒性分析

鲁棒性主要指优化方案对于决策变量或者环境变量中一些小扰动的不敏感性。对于现有文献而言,通常采用均值以及标准差作为衡量目标函数和软约束函数鲁棒性的参数,并简单地将“最坏解”当作强约束函数鲁棒性的参数[35-37]。因此,本文为了计算蚁群算法可行解的鲁棒性,主要通过在蚂蚁搜索邻域内取大量的采样点,然后计算这些采样点上的目标函数值/约束函数值。对于目标函数f(x,δ),采用平均值或期望的适值函数来衡量可行解x的鲁棒性能,计算如下:

式中p(δ)代表不确定性或干扰的概率密度函数。

对于蚁群算法的迭代过程而言,蚂蚁在搜索路径中得到的最优解才有可能成为全局或局部最优解,相对于其他遗传算法,蚁群算法对初始路线的要求不高,也即蚁群算法的求解结果并不依赖于初始路线的选择,同时在搜索过程中也不需要进行额外的人工调整,其通过迭代不断自我调整就能进化出最优解。其次,蚁群算法的参数比较少且设置简单,能够很容易应用到显著超像素的搜索且能够高效地得到优化解。因此,本文算法具有较强的自适应性和鲁棒性。

2.5 主观性能分析

各模型的视觉性能对比如图3 所示,从图中可以看出所本文模型的主观性能优于其他显著性检测模型,特别是对于弱光图像。

图3 在四个数据集上各种显着性模型的定性比较Fig.3 Qualitative comparisons of various saliency models on four datasets

NP 模型无法在复杂背景图像上准确检测显著物体。对于CA 模型、PD 模型和SC 模型,显著目标的内部结构信息无法得到完整表示。在复杂场景和弱光环境下,MR 模型、SO 模型、SMD 模型和MIL 模型无法获得完整的显著目标。BL 模型和GP模型能够在可见光图像上获得相对令人满意的结果,但在弱光图像上的性能却比较差。本文提出的基于蚁群优化算法的显著模型可以鲁棒且准确地检测出整个显著目标。

3 结语

本文针对弱光图像提出了一种基于ACO 算法的显著目标检测模型。通过超像素分割,以超像素为节点创建图结构。利用基于熵的特征选择策略和全局对比度度量进行显著性计算。为了获得更准确的结果,使用了鲁棒的ACO 结构来优化显著图。在3 个可见光图像数据集和1 个弱光数据集上的综合评估表明,本文模型与11 个先进的显著模型相比表现出了良好的准确性与鲁棒性。尽管模型在弱光图像显著性检测任务上取得了初步成功,单纯依靠手工特征难以充分表征弱光图像的特性,鉴于深度特征强大的表达能力,基于手工特征和深度特征的联合算法是本文今后针对弱光图像显著目标检测的重点研究方向。

猜你喜欢
弱光集上显著性
一种结合多尺度特征融合与像素损失加权的显著性目标检测方法
关于短文本匹配的泛化性和迁移性的研究分析
视频序列中视觉显著性图像区域自动提取仿真
欧盟法院判决明确欧盟商标通过使用获得显著性的地域认定标准
商标显著性的司法判断(一)
不同品种番茄幼苗在弱光条件下对亚适温的适应性研究
师如明灯,清凉温润
弱光条件下亚适温对黄瓜幼苗生长及抗氧化酶活性的影响
好照片在哪里:好照片在弱光中
几道导数题引发的解题思考