自然场景下的密集文本检测方法①

2021-02-23 06:30陈洪刚卿粼波何小海王思怡
计算机系统应用 2021年2期
关键词:文本框权重边界

牟 森,陈洪刚,卿粼波,何小海,王思怡

(四川大学 电子信息学院,成都 610065)

自然场景下的文本检测与识别被认为是目标检测领域中最具有挑战性的难点之一,它在图像处理、无人驾驶、文档分析、自然语言处理等诸多机器视觉领域都存在大量的应用.相较于通用物体的目标检测,复杂场景下的文本检测存在诸多难点:(1)场景中的文本行颜色、字体、尺度多样化并且相关性较小.(2)背景多样化.在自然场景下,文本行的背景是任意的,还可能会受到结构相近的背景的影响(如栅栏).(3)文本行的形状和方向多样化.如水平、垂直、倾斜、弯曲等.(4)存在诸多艺术字、手写字、多种语言混合以及不同程度的扭曲.(5)恶劣的光照条件和不同程度的遮挡.

近年来,文本检测领域的深度学习策略主要有:(1)基于字符的文本检测.Baek 等[1]提出先检测单个字符(character region score)及字符间的连接关系(affinity score),然后根据这些连接关系确定最后的文本行,再采用高斯热度图来生成区域分数和连接分数两个特征图,最后借助文本行的长度进行弱监督训练.(2)基于文本框的坐标回归的文本检测.Tian 等[2]使用一连串小尺度文本框来实现文本检测的任务,并且引入RNN 模型提高文本的检测效果,用边界优化使文本框的边界预测更加精准;Liao 等[3]提出的端到端的神经网络模型,修改了锚点(anchors)尺寸和卷积核尺寸,采用多个尺度的预测,来提高对anchors 没有覆盖到的长文本的检测效果.Liao 等后来又针对该模型进行了改进[4],实现了预测旋转的文本框;Shi 等[5]提出文本行检测的两个基本组成元素:分割(segment)和连接(link),并且提出了两种link 类型:层内连接(withinlayer link)和跨层连接(cross-layer link);Zhou 等[6]提出一个快速、准确的两阶段文本检测方法.(3)基于语义分割后进行实例分割的方法.Deng 等[7]提出通过实例分割结果提取文本的位置,并且将像素点进行连接得到文本框.使用像素分类实现语义分割,使用链接实现实例分割.Wang 等[8]提出了一种渐进性的扩展网络,它可以实现对任意形状文本实例的检测.该方法使用了最小内核的思想完成实例分割,在此基础上渐进式地使用不同内核来补充实例分割的区域.(4)文本框回归和语义分割的组合方法.Zhang 等[9]提出了一个新型端到端文本检测器,它由3 部分组成:直接回归模块(DR)、迭代修正模块(IRM)、形状表征模块(SEM).首先由直接回归模块产生粗略的四边形候选文本框;然后通过迭代修正得到完整的文本行的特征块;最后根据文本行的区域、中心线及边界偏移得到最终的文本行.

Zhou 等[6]提出的EAST 算法在准确性和总体效率方面明显优于同领域内之前提出的其他方法,后有人对其增加了后置处理(AdvancedEAST[10]).本文提出Dilated-Corner Attention EAST (DCA_EAST)改进算法,在AdvancedEAST 网络结构加入空洞卷积模块以及角点注意力模块,改善了漏检情况.对损失函数改进,加入类别权重因子和样本难度权重因子,有效提升了密集文本的检测效果.

1 AdvancedEAST 算法分析

AdvancedEAST 包括全卷积网络(Fully Convolutional Networks,FCN)阶段和非极大值抑制(Non-Maximum Suppression,NMS)合并阶段.FCN 可以直接生成文本区域,消除冗余过程及复杂的中间步骤.该方法既可以检测单词,又可以检测文本行,检测的形状可以为任意形状的四边形.针对文本行的特点,使用了位置感知NMS(Locality-Aware NMS)来对生成的文本区域进行过滤,降低了NMS 的复杂度.AdvancedEAST 网络结构图(如图1),分为特征提取主网络(4 个级别的特征图,表示为fi)、特征合并分支(依次将主网络中1/32,1/16,1/8,1/4 特征图进行合并)以及输出层:是否在文本框内(score map),是否属于文本框边界像素以及是头还是尾(vertex code),预测的2 个对角线顶点坐标(vertex coord).

图1 AdvancedEAST 网络结构图

对于密集文本的检测,AdvancedEAST 算法存在感受野受限的问题;并且在预测生成激活像素的过程中,存在头或尾边界像素丢失的情况,导致文本框漏检,如图2所示.

2 Dilated-Corner Attention EAST 结构

2.1 网络结构优化

针对上述问题,本文在AdvancedEAST 算法的基础上引入了空洞卷积模块(dilated conv module)以及角点注意力机制(corner attention module),改进算法的网络结构如图3所示.

图2 AdvancedEAST 算法的图象激活像素

图3 本文算法网络结构图

在4 个特征图输出之前,分别采用扩张率为18、12、6 和3 的3×3 空洞卷积来增加网络的感受野.

为了减少激活过程中头或尾边界像素丢失的情况,本文在对不同尺度的图片特征提取后,由上至下对每一个层次的特征进行融合,将特征融合阶段的上采样(unpool)改为双线性上采样,并利用当前层次融合的特征对目标位置进行预测.这样相较于标准方法来说,可以生成更均匀的特征金字塔,包含更多的上下文信息.并且本文加入角点注意力模块,目的是融入后置处理中的边界像素特征.

假设注意力模块需要处理的特征序列为s={s1,s2,s3,···,sn},其中n表示特征向量的个数.最基础的形态注意力机制的公式如下:

其中,t表示当前时间,ct′表示输出变量,ht表示隐藏层,αt′t表示一个权重的概率分布,σ是一个单层的感知机.

常用的通道注意力机制和空间注意力机制对于特征图边界像素的关键信息提取效果并不理想,故本文采用了角点注意力机制,具体地是将特征图的输入边像素界特征与输出的边界像素特征通过一个标准的一维全连接层(dense layer)连接起来,公式如下:

其中,i表示当前时步,xi为输入边界像素特征,yi−1为输出的边界像素特征,attentioni表示i处的注意力权重,ci表示输出的带有注意力的上下文信息.

2.2 针对密集文本的损失函数设计

在一般的数据集中,负样本数量太大,导致损失函数输入参数的大部分都是负样本,并且很多是容易分类的,因此会使得对密集文本的检测效果并不是很好.之前也有一些算法来处理这种类别不均衡的问题,比如OHEM (Online Hard Example Mining),OHEM 算法虽然增加了错分类样本的权重,但是OHEM 算法忽略了容易分类的样本.

故本文在标准交叉熵损失函数[11]的基础上引入了类别权重因子 α和样本难度权重因子(1−)γ,来缓解上述问题,提升模型精确.α可以平衡正负样本,γ可以调节简单样本权重降低的速率,γ>0 可以减少易分类样本的损失,使得模型更关注于困难的、错分的样本.在产生区域文本框的阶段,通过得分和NMS 筛选可以过滤大量的负样本,然后在分类和回归阶段又可以固定正负样本的比例.对于不同的 γ值,模型的平均精确度(Average Precision,AP)具有不同的表现,经测试,γ=2时表现最好,结果如表1所示.

表1 本文不同γ 值对应的AP 表现

Score map 和vertex code 的损失函数公式如下:

其中,Y∗表示正确标注,表示预测值,N表示样本数量.α表示所有训练图像中为1 的像素点数量占总像素点数量的比例,这是个先验值,在标签生成中就可得到,具体地定义为:

其中,w为归属权重:

其中,∈Y∗.

对于vertex coord 的损失函数,本文采用加权的Smooth L1函数.相比于L1损失函数,Smooth L1可以收敛得更快,相较于L2损失函数来说,Smooth L1对异常值、离群点不敏感,梯度的变化相对更小,训练更稳定.损失函数的定义如下:

其中,w为式(8)中的权重,Smooth L1函数定义如下:

综上,得到总的损失函数为:

其中,λs、λv和λg分别为score map、vertex code 和vertex coord 权重.

3 实验与分析

3.1 实验环境与设置

本次实验在Ubuntu 18.04.3 LTS 上进行,开发语言为Python 3.6.9.GPU 版本为NVIDIA GTX 1080Ti,显存11 GB.

3.2 模型训练

采用Adam[12]优化器对本文提出的模型进行端到端训练.损失函数参数γ=2,λs=4,λv=1,λg=1.数据集采用的是ICDAR2019 挑战赛所用的ReCTS,该数据集主要是中英文招牌,包括20 000 张训练图片和5000 张测试图片.由于图片尺寸跨度较大,故本次实验采用多尺度训练的方式对原始图像进行训练,以改善模型对不同尺度的图片文本检测的鲁棒性.Batch size 设为8,Adam 学习率从1 e−3开始,5 个epoch 后无改善则下降到1 e−5,进行网络训练.

3.3 实验结果

本文算法与AdvancedEAST 算法在自然场景下的文本检测结果对比如图4、图5所示.

图4 图象激活像素和文本框定位

对比可以发现,图4(a)中存在头或尾边界像素丢失而导致的文本框漏检情况,图5(a)中存在对于密集文本检测不到的情况.通过本文算法处理后,激活像素连通性更好,头尾像素也更加丰富,密集文本的检测效果明显改善,如图4(c)、图5(b)所示.同时,本文使用准确率(Precision)、召回率(Recall)和加权调和平均值F-measure 三个指标来评价本文算法的性能,并与AdvancedEAST 算法进行对比,实验结果如表2所示.可以看出,本文算法相比于AdvancedEAST 算法在文本检测的各项指标上均有提升.其中召回率提升比较明显,这是因为本文算法增大了困难正样本的检测能力.

图5 密集文本检测效果图

表2 本文算法与AdvancedEAST 文本检测算法实验结果对比

4 结论

本文算法在AdvancedEAST 算法的基础上,引入了Dilated-Corner Attention EAST,增大网络特征提取的感受野,可捕获更多激活过程中边界的上下文信息,改善了文本定位中出现的文本框漏检情况;同时,对损失函数的改进,平衡了样本的类别权重以及样本难度权重,最终有效提升了密集文本的检测效果.与AdvancedEAST相比,准确率、召回率和F-值均有提高.

猜你喜欢
文本框权重边界
权重望寡:如何化解低地位领导的补偿性辱虐管理行为?*
守住你的边界
巧用文本框实现PPT多图片排版
权重常思“浮名轻”
PPT文本框的另类应用
有边界和无边界
OF MALLS AND MUSEUMS
为党督政勤履职 代民行权重担当
权重涨个股跌 持有白马蓝筹
人蚁边界防护网