空间点云物体理解与识别的研究进展

2014-03-26 08:17宁小娟王映辉郝雯
西安理工大学学报 2014年2期
关键词:描述符形状语义

宁小娟,王映辉,郝雯

(西安理工大学 计算机科学与工程学院,陕西 西安 710048)

近年来,随着计算机视觉、人工智能技术以及机器人技术的发展,关于各种空间物体的理解和识别的研究已经引起了越来越多的关注。特别是三维激光扫描技术的普及,基于离散点表示的空间物体成为学者们的重点研究对象。然而离散点表示的空间物体外形信息和拓扑结构的复杂性、物体获取方式和外形表示方法的多样性以及环境影响因素的多变性等,都毫无疑问地增加了计算机对空间物体的自动感知和理解的难度[1]。因此针对空间物体理解与识别的研究仍是一项富有挑战性的课题。

空间物体是现实世界中的主要组成部分,也是人类感知世界的基本对象。所谓空间物体理解与识别是在环境感知数据获取空间物体外形信息的基础上,通过物体的特征分析与表示,利用设计的自动智能体根据视觉输入对空间物体进行推理,达到对视觉物体的感知和理解[2]。这项研究在很多领域都得到了广泛的应用,诸如:机器人感知导航[3]、人身安全和环境监控[4-6]、医学影像辅助诊断和计算机辅助外科手术[7]等,这些领域都需要输入人类或机器可感知的视觉物体,并对真实世界中物体间的相互关系进行推理。

人类对空间物体的感知和表达主要有两种理论:一种是基于空间物体模型的组件(Recognition by Components)或者说对模型的结构化描述[8-10];另一种是基于多视点的描述[11-13]。大量的研究表明[14],这两种方法结合起来可以更好地表示人类对空间物体的感知和认知。

因此,从空间物体的形状复杂度出发,将研究对象分为:①简单场景(只包含单目标物体,以下简称为“单目标物体”)的理解与识别;②复杂场景(包含多个目标物体,以下简称为“多目标场景”)的理解与识别。这两者具有紧密的相关性,但应用的侧重点不同,前者多应用在模型检索、模型分析、曲面重建等方面,后者主要用在智能机器人控制、城市规划、文化遗产保护、虚拟漫游等方面。据此,本文分别总结、阐述和分析现有的针对两种不同的目标复杂度场景的理解与识别方法,重点总结和分析现有方法的优缺点,并对在此过程中所涉及的相关技术难题提出相应的构想和思路,进一步指出未来的研究方向。

1 空间物体的数据获取

对空间物体最传统、最直观的获取方法是基于CCD相机的二维图像拍摄。近年来随着传感器技术的进步,激光扫描仪、医学断层成像设备、大地测量卫星、雷达或地震勘探仪器等现代数据采集设备的相继出现,使得物体外形信息的采集技术得到空前的进步;尤其是各类中低档的数字激光扫描仪价格已为许多研究单位所承受,曾经难以实现或无法实现的测量以及复杂形状的表达成为可能,测量精度也越来越高。这些技术为快速记录空间物体结构和物理信息的获取提供了方便。

现有的空间物体的数据表示形式也较多,按照获取方式的不同可以分为以下几种数据表示方法。

1) 二维图像(2D Image)

图像是将三维场景中的物体经过成像系统投影到二维平面而获得的,是记录和获取空间物体数据表示的最为直接的方式。大多数的研究者在基于图像的空间物体理解与识别方面展开了大量的探索研究工作。

2) 深度图像(Range Image)

当传感器如扫描仪光学三角测量仪器在规则的2D采样格上生成深度值时,深度图像就形成了。因此,深度图像在概念上等同于一般的灰度图像(Intensity Image),不同的是其中的灰度值替换为从传感器到物理位置的距离。鉴于此,深度图像通常可以将二维图像信号处理中的相关操作和方法运用到三维数据处理过程中。许多的研究者致力于采用深度图像进行可视化的研究。

3) 点云数据(Point Cloud Data)

与传统的测绘技术相比,激光扫描技术获取空间信息数据具有快速、精度高和便于处理等优点,利用该技术可以深入到复杂的现场环境及空间中进行扫描操作,直接得到各种大型的、复杂的、不规则、标准或非标准的实体或实景的三维数字几何信息。这些几何信息通常以原始无序的、密度分布不匀的三维空间点集的形式存在,数量从几千到上千万个不等,我们称之为三维离散点集,或称为点云数据(Point Cloud Data,简称为PCD)。图1(a)给出了利用激光扫描仪获取点云的示意图,图1(b)是利用拓普康GLS-1500采集的西安理工大学计算机学院的全景点云模型,数据的颜色是由其物体表面的反射强度来决定的。

图1 三维点云数据的获取

2 单目标物体的理解与识别

单目标物体的理解与识别主要包括两方面的内容:其一是形状的分解;其二是基于形状分解的物体理解。形状分解是对物体形状进行拓扑信息分析的基础上进行组成部分的拆分;而形状理解则是在形状分解的基础上,利用组成部分之间的拓扑关系对物体形状进行描述,进而探索基于语义的物体理解,形状分解可以更好地得到物体各个组成部分的信息,是进行物体理解与识别的关键一步,可为理解与识别工作提供更为直观的感知信息。

2.1 形状分解

形状理解是把复杂拓扑结构的空间物体分解为若干个具有一定视觉意义的组成部分或者具有各自不同功能的组成部分。在图像处理领域中,此过程也称为分割,它是一个古老话题,也是一个核心问题。

形状的分解有利于对物体整体结构和外形进行分析、理解和识别,除此之外还在物体的形状简化、匹配、变形、检索、纹理映射、骨架提取以及模型重建等方面有着广泛的应用[15-18]。尽管针对图像处理已经有相当的研究成果,但对于点云仍是一项具有挑战性的研究课题。现有的关于点云三维形状分解的研究主要集中于网格模型[19-22],这些研究依赖于网格模型提供的边、面等拓扑信息,Shamir[23]给出了一些网格分割方法的比较。此外有很多研究者为了利用成熟的网格模型分割技术,将点云直接转化为网格进行分析与理解。

2.1.1 面向多特征集的形状分解

从三维点云表示的空间物体出发,基于输出结果的类型不同可以将分割方法分为基于块(Part-type Segmentation)和基于分片(Patch-type Segmentation)两种分割算法[24]。

1) 基于块的分割方法

基于块的分割方法是根据人眼可感知的特征对物体进行有意义的分解,可以得到语义方面的特征,直接用于三维几何模型检索、骨架提取与简化。利用边界信息是基于块的分割方法中一个常用的感知特征,Katz和Tal[16]基于测地距离和角度距离生成表面元素的模糊聚类,经过聚类之后将模糊的切割部分进行更新。文献[25] 首先提取与姿态无关的特征点,每个分割部分必须至少对应一个特征点。Lee 等人[26]采用极小值规则找到局部特征轮廓,并将其封闭成环状,通过选择最典型的环,并利用基于蛇形的方法将环移动到更适合的位置,形成块切割。

此外,还有一类方法主要利用模型的内部特征,Mortara等人[27]将形状分解为一般的部分和管状部分,该方法主要利用球沿着模型的内部做扫描运动。Attene 等[28]提出基于拟合基本图元(例如圆柱和球体)的分割方法。另外一种考虑模型内部特征的方法是根据骨骼结构,如曲线骨架。Reniers和Telea[29]检测曲线骨架的连接处,然后利用与每个曲线骨架点相关的Jordan曲线自然地将边界分为连通的部分。Li等人[30]提出一种沿着骨架和信号平面空间扫描方法。Lien等人[31]观察到分割和骨架化拥有相似的特征,并提出一种分割和骨架化并行的方法。

2) 基于分片的分割方法

基于分片的分割方法通常输出一些满足给定几何约束特性的分割结果[24],该方法是将网格曲面分解成若干拓扑同胚于圆盘的多个分片,这种分割方法依赖于不同的几何准则,比如平面性、常曲率或凸性。这些分片结果通常在几何属性上具有一致性,因而多数应用于曲面参数化、曲面重建等方面。

Garland等人[20]对网格面片进行层次聚类,生成由平面部分组成的分片类型分割结果。Clarenz等人[32]提出一种基于面曲率的三维形状模糊尺度分割,然而这种方法往往会在低曲率区域产生噪声边界。Borgefors等人[33]结合多分辨率结构来计算局部厚度,进而生成3D体素形状的层次分割。Hisada等[34]使用骨架、去噪和滤波技术来检测多边形的显著形状特征。Mangan和Whitaker[17]利用分水岭算法将网格面片分解成具有相似曲率的部分,该方法使用曲率作为高度函数。Zuckerberger等[22]提出了一种改进的分水岭算法,并给出了多种分割应用。Provot等[35]通过检测可变宽度的离散平面对体素模型进行分割。Wang等人[36]提出了一种基于投影分析的有监督的三维模型语义分割算法,利用一种新颖的两类Hausdorff距离来对三维模型所投影的二值图像进行匹配。此算法可有效解决三维模型分析中数据源问题。

2.1.2 面向目标函数和优化策略的形状分解

按照目标函数的特点和优化策略可以将三维模型形状分割方法分类为三种,基于亲和力的方法(Affinity-based Approaches),基于模型拟合的方法(Model-fitting Approaches)以及基于特征的方法(Property-based Approaches)。

1) 基于亲和力的方法

亲和力用来定义属于同一类的每对面片元素之间的相似性,分割算法正是基于这种相似性提出的,如:分水岭算法(Watershed Segmentation)[17],基于模型凸分割(Convex Decomposition)[37],层次聚类方法(Hierarchical Clustering)[20],k-means聚类分析[21],模糊聚类与最小割方法(Fuzzy Clustering and Cuts)[16],核心抽取方法(Core Extraction)[25],Reeb图方法(Reeb Graph)[38],关键点分析方法(Visual Salience)[39],随机走动方法(Random Walk)[40],区域生长(Region Growing)[41],模型简化(Decomposing polygon meshes)[30],随机切割方法[42],图割的方法[43-45]等。这类方法需要估计两个面片之间的目标函数,为了对目标函数进行合理的评估,通常需要大量的形状上下文语义。

2) 基于模型拟合的方法

该方法假设分割的每一部分都可以由不同的参数化模型独立产生。在这种情况下对模型进行分割,通常可以确定模型的类型和相应的最佳拟合的模型参数。相反,如果给定一个已知的模型也可以相应地分类网格面片,从而达到分割的目的。在该类型的分割方法中,典型的优化整个分割的方法主要包括:区域生长[46],基于变化的[47-48]和基于层次的方法[28]。这类方法通常无法满足诸如对称性或凸性,因为这些一般难以用一个模型来生成。

3) 基于特征的方法

基于特征的方法主要是根据分割的特征进行分类,主要有对称性(symmetry)[49-51]、凸性(Convexity)[37,52-54],管状特征(Tubularity)[27],纹理特征(Texture)[55-56],表面扩散(Diffusion)[57]和物理模型中的振动模式(Vibration of Modes)[58]。通常这些属性难以通过表面元素之间亲和力或模型生成的方法来获取。此外,Agathos[20-21,59]和Shamir[60]分别对现有的方法做了总结和讨论,尽管如此仍没有一个全面的、自动的分割标准框架。于是2009年Chen等人[61]建立了一个模型分割的Benchmark,通过分析大量的模型分割数据以及人工分割和计算机分割各自的特点,提供了7种分割方法的量化分析和比较,同时提出了评价模型分割算法结果的Benchmark。Evangelos Kalogerakis等[62]在Chen等2009年的工作的基础上,提出了一种数据驱动的方法来对三维模型进行同步分割和标记,通过对已有的模型库进行学习、训练,实现对测试模型的正确分割。这类方法为了产生一致的分割结果往往需要大量的样本进行训练和学习。Wu等[63]提供了一种交互式的形状联合分割方法。为了避免交互、学习等问题,大量的无监督学习的方法涌现[64-69]。Golovinskiy等人[64]首次将单个形状分割的思想推广到多形状的分割上,通过对输入形状进行刚性对齐,并利用层次聚类进行形状分割。该方法仅对具有高度相似性的形状有效。Sidi等[65]提出了一种非监督的形状集分割方法,可以有效表示形状语义并建立形状集之间的对应关系。Lei等[66]提出了一种基于谱图方法的三维模型无监督联合分割算法,该方法可以分割各种不同类型的三维模型,而且在处理具有显著拓扑结构变化的三维模型时更为有效。

2.2 形状理解

形状分解涉及到了对视觉物体对象几何属性的认知、学习,是一项非常复杂而且极富挑战性的问题,在机器视觉和不同领域有很多复杂的应用,如医学图像、动画和产品建模等。迄今为止所获得的成果推动了极具创新性的研究领域的大量有意义的工作,例如在处理多维媒体的基于语义的知识系统领域等。

为了处理形状理解的复杂性,Les等给出了一些平面物体形状理解的方法[70-72]。Oliver等[73]提出了非监督式的形状层次分析方法,不仅可以揭示形状的层次结构还可以获得结构之间的关系。在三维形状的理解研究方面,Attene[74]从计算方法的角度对形状理解进行分类,主要可以分为基于几何和结构的方法(Geometry and Structure)、基于形状拓扑的方法(Topology-based Method)。

1) 基于几何和结构的方法

该方法是通过对物体对象的空间范围(即几何)、物体的特征以及物体的组成部分分解(结构表示)等实现的。通常需要定义一些理想的形状描述符以捕捉和计算给定表面的主要特点,并提取旋转、平移和缩放不变的几何形状,然后区分全局和局部特征,并将其联合起来抽象成一个紧凑的表示形式,进而用于一些复杂的任务诸如:形状匹配、形状检索和形状比较。典型的研究机构IMATI-GE/CNR(Genova of the Institute of Applied Mathematics and Information Technologies)开发了AIM@SHAPE国际项目,其主要目的是发展基于语义的形状表示,并利用相关的知识开发面向语义的工具来获取、构造、传递和处理形状。

这里涉及的形状描述符主要有局部表面描述符和全局表面描述符两种。局部表面描述符用来表示曲面上的点以及邻接点的几何特征,并通过匹配场景数据和目标模型以实现物体识别、模型匹配、形状配准等目标工作。现今有许多的研究工作集中于采用局部表面描述符来表示物体的形状。

de Figueiredo和Kehtarnavaz[75]假设物体是由一些光滑的分片集组成的,然后他们利用属性图来表示物体,图中每个节点的属性都由对应分片的高斯曲率来表示,最后主要采用基于图匹配的方法进行物体的识别。Stein和Medioni[76]主要研究密集型数据,他们主要利用两种主要特征,一种是基于三维曲线,另一种称为splash,它基于小的曲面分片,是一种可以描述面法向量的局部高斯映射。这两种特征经过编码后可以用来快速地进行检索和匹配。Chua和Jarvis[77]提出一种特征描述符point signature,然后通过特征的计算和投票机制对物体进行识别。Johnson和Hebert[78]提出使用旋转图像来表示由许多密集样本点描述的曲面形状,每一点的旋转图像都是经过对物体表面点的坐标进行编码而成的,然后通过比较和匹配这些旋转图像达到识别的目的。Sidi等[65]也提出采用多特征描述符来度量各分割区域之间的相似性,并将联合分割问题看作是一种聚类问题。除此之外还有许多其它一些类似工作,这些工作的主要区别在于如何定义局部表面特征符以及如何进行曲面的匹配。

全局表面描述符主要描述了3D物体整体形状中的全部或者最显著的几何特征,这种描述方法在3D物体的表示、匹配和分类中也得到大量的研究。

早在几十年前,傅里叶描述符就可以用来表示封闭的2D轮廓,并已经应用到基于2D物体轮廓线对物体进行识别[79-80]。近年来,也有很多研究者致力于将傅里叶描述方法推广到3D曲面中[81-84]。这些方法的基本思想是:首先将物体的原点映射到一个单位球体上以形成一个定义在单位球曲面上的函数。该函数可扩展成一系列的球谐波函数,傅里叶的系数可用作面描述符,通过比较系数空间中的傅里叶描述符实现物体的比较和识别。

2) 基于形状拓扑的方法

实际上基于形状拓扑的方法是利用数学工具来判断物体之间是否匹配,是否有区别,进而捕获和理解空间的形状。除了组合拓扑结构之外,传统的工具诸如Morse理论、同伦和同源性都是可以用来处理与形状理解相关的问题。Morse理论主要研究空间中不同形状之间的关系以及在空间上定义的光滑函数的临界点的关系。近几年来,Morse理论也被成功地应用到标量场数据的可视化中。

Hilaga[85], Biasotti[86], Dey[87]和Xiao[88]分别根据Morse理论,采用Reeb图的方法对模型的拓扑结构进行分析,获得模型的拓扑结构表示,得到实体的语义描述,然后进行形状的理解与识别研究。其中Hilaga[85]使用表面测地线距离作为Morse函数,并提出一种多尺度Reeb图算法。Biasotti在Morse理论和Reeb图的基础上给出了扩展Reeb图[86](extended Reebgraph,ERG),用以表示临界点之间的拓扑关系,该方法为模型的分类、简化和存储提供了有效的形状表示。Dey等人利用Morse 理论的思想定义离散域上的光滑函数进行网格分割[87]。Xiao等人[88]采用了一种离散Reeb图(DRG)的方法来对人体模型的拓扑结构进行分析。另外,Bespalov等[89]提出了一种顶点的距离矩阵,通过距离矩阵对三维模型进行分解来得到三维模型的Reeb图。Tung[38]提出了一种增量Reeb图算法,这个算法采用的Morse函数也是高度函数。Hui等[90]通过两层拓扑分解,利用图表示实体各部分的分解关系,实现对形状的初步理解。波恩大学的Schnabel[91]通过把语义实体描述为具有原始形状结构的带约束的图,然后进行形状的理解研究,其中包括三维点云数据的形状表示问题。Zheng等[92]首先将输入的三维模型进行预分割为一组关系图,并在此基础上提出一种对称的功能排列(简称为SFARR-s)方法,可以组合得到不同形状的物体。

综上,基于几何和结构的方法主要利用特征描述符,经过特征匹配达到物体的理解与识别,而基于形状拓扑的方法主要通过获取物体的形状信息利用数学工具进行模型的匹配与识别。这些方法都仅考虑物体的几何或者形状,仅局限于物体的一种特征描述。如果结合物体的形状分解结果,综合利用物体的结构和形状拓扑,从物体整体的组成和语义关系出发,建立物体的语义描述,这样才能抓住单个物体理解与识别的关键问题。

3 多目标场景的理解与识别

3.1 多目标场景的分割

多目标场景的分割是感知和理解场景中多目标物体的最基本步骤,即如何有效、快速地选择能够完整表示场景中各目标的点云子集。场景目标分割中典型的方法有Hough变化、区域增长和基于随机采样一致算法RANSAC(RANdom Sample Consensus)等。在机器视觉和计算机图形学领域中经常使用第1和第3种方法,而区域生长的方法多用于逆向工程领域。

1) 基于Hough变换的方法

Hough变换是基于一种投票机制,旨在从原始离散参数化空间中提取参数化形状。为此,Hough变换将输入的数据中每一个点映射到参数域中的一个流形上。生成的流形由所输入点相交的所有可能的变体组成。在离散参数化空间的所有cell如果与流形相交则得到一个投票。当输入的每个点都经过处理之后,通过选择投票较多的参数向量进行形状的提取。然而对于形状复杂的基元,其参数通常非常多(如:圆环面),那么对于高维离散参数域来说,该方法的复杂度则成为其的最大缺点[93],尽管仍有一些方法[94-95]用来针对此问题,然而其主要的应用领域仍是在参数较少的二维空间中。其中一个特例是vosselman等[96]利用Hough变换进行3D数据集中的平面检测和柱面的检测。

2) 基于区域增长的方法

区域增长的方式首先从数据中选择一个种子区域,然后通过判断与周围区域的相似性进而确定能否进行增长。区域增长方法的主要问题是初始的种子区域与初始区域的拟合质量都将会影响到最终分割的结果,因此如果一个区域的噪声较大时很难确定是否进行增长。文献[97]提出了一种扩展的区域增长方法,该方法中多个种子区域同时独立进行增长,从而得到多个重叠的聚类,然后选择可以逼近整个数据的聚类的子集,同时代价函数又最小,该方法可以得到较好的分割结果,但是受噪声影响比较大。在逆向工程中多数的曲面重建技术都是基于区域生长的方法[98-100]。然而选择合适的种子点、合适的增长设定阈值以及合适的增长准则非常不易,这使得要实现真正意义上的点云场景分割,甚至得到语义分割仍存在很大的困难。

3) 基于随机采样一致算法

随机采样一致算法最早是1981年由Fischler 和 Bolle[101]提出的,主要用来从一堆数据点中估计出一个预先定义好的模型及其参数,是一个非常鲁棒的模型估计算法。由于该算法对噪声和外点都有很好的鲁棒性,所以对于真实空间场景扫描数据的形状检测是一个非常好的方法。很多研究者在此方面展开了研究,典型的工作主要有Bolles和 Fischler[102]利用RANSAC从深度图像中提取圆柱信息,Chaperon和Goulette[103]使用RANSAC和高斯图像来检测3D点云中的圆柱。这两种方法都没有考虑多种类型的形状基元。相比而言,Roth和Levine[104]利用RANSAC检测不同类型的简单形状基元,然而这些方法对处理大规模的离散点云数据,显得很棘手。Schnabel等[91]利用RANSAC快速检测语义实体描述的形状,并将其表示为具有原始形状结构的带约束的图,最后将其应用到扫描的场景中,然而其中用的查询图和其中的约束条件必须经过手工定义。Zheng等人[105]利用RANSAC算法从扫描点云场景中提取出平面信息。尽管RANSAC算法是一种比较有效的模型估计方法,可用来提取空间物体中圆柱、平面等不同形状,然而这些形状如何组成物体,不同形状之间的空间分布都无从获得。

3.2 场景的理解与识别

利用场景目标分割方法将场景分成一个个独立的、相互联系的小区域,这些区域表示或者代表的是哪一种物体,场景主要是由哪些目标物体组成的,目标物体之间有着什么样的关系,都成为场景理解和识别的关键内容。

1) 基于图模型的方法

Chen[106]在基于CSG(Constructive Solid Geometry)的三维物体识别方法中,提出用PG图(Precedence Graph)来表示三维物体,并成功地应用神经网络实现了模型与深度图像中景物的匹配,进而实现三维物体的识别。但在该方法中基元的主要参量为曲面类型及大小,因而对三维曲面物体的识别具有一定的局限性。Zheng等[107]提出基于几何推理和物理推理的场景理解方法,利用一种新的DG图表示能量图,进而完成对场景中对象的分割和理解。Somani[108]将感知模型和推理引擎相结合完成机器人对场景的理解,该方法首先探测出场景的基本形状,然后将对象利用基本形状图表示(primitive shape Graph, PSG),根据图的匹配完成机器人对场景物体的识别。Xu等[109]提出了一种基于聚焦点分析的方法。将三维场景模型表示成图结构,聚焦点则是一种在大量彼此相关的场景图结构中频繁出现的子图结构,通过自动提取这种上下文相关的子图结构,可以实现对大规模场景数据集的结构分析和结构化组织。

2) 基于局部特征的方法

由于场景的复杂性以及目标物体的多样性使得全局表面描述符不能够准确地描述物体的真实几何信息,因此基于全局描述符的识别工作很难适用。而局部表面描述符侧重于表示局部3D几何信息,不会对局部特征计算的准确性造成太多影响,也不会对识别产生影响,因此许多学者在基于局部表面描述符进行场景理解和识别方面展开研究。

Antonio Adan[110]提出利用灵活的相似性度量策略对三维物体进行识别。Mian等[111]提出一种基于3D模型的、与视点无关的场景物体分割和识别方法。Salvador等[112]提出利用球旋转图像来表示物体的形状特征,通过刚体变换查找最佳匹配实现物体的识别和定位。Frome[113]提出两种区域点描述符对场景中的物体进行识别。Rabbani[114]和Unnikrishnan[115]主要对场景中的几何图元进行提取和分类。魏[116]提出了一种基于局部描述符的三维点云物体识别算法。算法的总体过程是通过把三维物体进行分割、投影,建立二维描述并形成模型库, 从而把三维物体识别转化为二维识别。

3) 基于机器学习的方法

Himmelsbach[117]等利用栅格的思想分割物体,然后在原始激光数据上提取特征,并使用支持向量机对物体进行分类。Anguelov[118]等完整地描述了一种基于Markov随机场的物体分类方法。相比较,Agrawal[119]虽然也采用Markov随机场模型来对物体进行认知,但是该方法首先利用激光点的邻域关系从激光数据中提取多边形集,然后以此作为结点对物体进行分类处理。Lalonde[120]通过计算三维空间特征,并利用贝叶斯分类器实现三维物体的分类识别。Lai[121]提出一种HMP3D算法,自动从RGBD图像以及点云数据中提取特征,无需手动设计,通过学习实现对小型桌面类场景中对象的标识。

4) 基于特定目标的方法

按照场景中物体类型的不同,研究者分别针对场景中具体的物体设计具体的方案,从现有的文献资料来看,大多数场景理解和识别方面的研究主要集中于场景中建筑物的识别、树木的识别、车辆的识别、地形识别等。

Golovinskiy[122]详细描述了识别空间场景中小物体的方法,主要通过定位、分割、描述和分类等步骤实现。关于场景中建筑物的理解和识别方面,Kada和Dorninger做了相关研究,Kada[123]提出利用Cell分解的方法从场景中提取出建筑,并结合图像识别窗户部分。Dorninger[124]利用层次聚类的算法提取场景的平面信息,旨在对提取的建筑物部分进行重建工作。Pu等[125]提出利用知识的表示方法对场景中的物体进行分类。在场景中树木识别方面,Wang等[126]从森林的LIDAR点云数据中检测并估计出树木的三维模型,Xu等[127]对树木的树枝和树冠进行分析和提取。Dai等[128]利用主方向分析的方法对扫描的树木的树枝和树叶进行分类提取。此外,Alexander等[129]提出结合自底向上和自顶向下的过程来检测空间场景中的物体,并将研究重点集中于场景中汽车的检测和识别。

上述方法中关于空间场景理解和识别方面的研究还是有很大的局限性,大多数的工作都仅仅是对复杂场景中的单个目标进行检测、提取和识别,而对空间场景的整体组成结构的情况、组成结构之间的关系以及场景的理解、场景中不同目标的理解和识别都还缺乏详细的研究,需要进一步深入探讨。

4 难点问题与发展方向

虽然现有的研究成果已经能够在很多场合帮助人们更好的感知和理解空间物体模型。但是,仅有这些方法还远远不够,要高效地帮助计算机感知和理解空间物体(包括简单场景和复杂场景),还需要研究和探索以下一些难点问题。

1) 姿态问题

对于空间点云物体而言,由于不同的姿态下物体本身的形体会发生一定程度的变化,因此姿态是影响进一步理解与识别物体的关键因素之一,那么如何实现符合人类感知和认知的空间点云物体一致性形状分解与表达?如果输入同类物体不同姿态下的多个数据集,那么在对物体进行形状分解时希望获得一致性的形状分解结果。针对此问题,一方面可利用有监督的方法,通过训练样本获得先验知识。另一方面利用无监督的方法,关键问题是建立不同数据集之间的特征关系,以及如何传递形状分解结果以避免物体姿态变化的影响。

2) 拓扑关联问题

拓扑结构是空间目标之间最基本的也是最重要的结构关系。有了形状组成,如果缺少他们之间的拓扑关系,则根本无法构造场景中的对象,也更无法谈及理解与识别问题。因此,如何构造场景物体的拓扑关系以及组成结构之间的关联性则是物体理解与识别的关键点和突破点。为了解决此问题,可考虑结合图论或者引入视觉感知信息来获得物体(场景)本身的拓扑结构表示,为进一步实现语义表达奠定基础。

3) 语义问题

关于物体的语义信息获取以及将形状语义应用于物体的形状理解仍然是研究者们“回避”的一个方向。由于不同的物体其形状各异,而且语义的描述比较抽象、难以理解,为了更加直观地建立物体的高层语义需要结合多方面的内容,既要有物体的结构,又要有物体的形状、拓扑及其相关联性,所以只有多层次的结合才可以建立鲁棒的形状高层语义描述统一模型。

以上问题的解决可为点云物体的理解和识别方法研究提供新的思路和理论依据。综合上述难点问题,可考虑以同类物体的不同姿态下的多数据集作为输入,研究无监督数据驱动下的点云物体(场景)形状分割方法,建立物体形状语义的统一描述模型。由此可见,综合谱聚类、图论等理论知识,研究无监督的物体(场景)的分割(分类)方法,探讨空间数据结构以及基本形状表示模型,探索物体(场景)分割、理解与识别的普适性方法将是进一步研究与发展的新方向。

5 结 论

本文以单目标物体、多目标场景为主要研究对象,分别重点分析总结了现有的基于点云的空间物体理解与识别方法,讨论了不同类方法的不足,并指出姿态问题、拓扑关联问题以及语义问题是当前研究迫切需要解决的难点问题,并分别提出无监督的分类法、视觉感知信息引导以及高层语义模型建立等相应的解决思路。同时强调提出一套系统的、普适性的空间点云物体理解和识别方法将是进一步的研究方向。

参考文献:

[1] Stuart R, Peter N. Artificial intelligence: a modern approach [M].Prentice Hall. New Jersey, USA, 2002.

[2] Newman P, Cole D, Ho K. Outdoor SLAM using visual appearance and laser ranging[C]//Proceedings of the International Conference on Robotics and Automation (ICRA), Orlando, FL, 2006: 1180-1187.

[3] Ellen K, Blake C, Olga R, et al. Autonomous operation of novel elevators for robot navigation[C]//Proceedings of the International Conference on Robotics and Automation (ICRA), 2010: 751-758.

[4] Quigley M, Batra S, Gould S, et al. High accuracy 3D sensing for mobile manipulation: improving object detection and door opening[C]//Proceedings of the International Conference on Robotics and Automation (ICRA), Kobe, 2009: 2816-2822.

[5] Saxena A, Wong L, Quigley M, et al. A vision-based system for grasping novel objects in cluttered environments[C]//In International Symposium on Robotics Research (ISRR), Hiroshima, Japan, 2007: 337-348.

[6] Thirde D, Borg M, Ferryman J, et al. A real-time scene understanding system for airport apron monitoring[C]// Proceedings of the International Conference on Computer Vision Systems (ICCVS), NY, USA, 2006: 26-26.

[7] Mirota D, Taylor R H, Ishii M, et al. Direct endoscopic video registration for sinus surgery[C]//In Medical Imaging: Visualization, Image-guided Procedures and Modeling. Proceedings of the SPIE, Lake Buena Vista, FL, 2009, 7261:1-8.

[8] Marr D. Vision: a computational investigation into the human representation and processing of visual information [M].New York:Henry Holt and Co Inc.,1982.

[9] Biederman I. Recognition by components: a theory of human image understanding[J].Psychological Review, 1987, 94(2): 115-147.

[10] Biederman I, Gerhardstein P C. Viewpoint-dependent mechanisms in visual object recognition: reply to tarr and bulthoff[J].Journal of Experimental Psychology: Human Perception and Performance, 1995, 21(6): 1506-1514.

[11] Koenderink J, Doorn A. The internal representation of solid shape with respect to vision[J].Biological Cybernetics, 1979, 32(4): 211-216.

[12] Bultho H H, Edelman S Y, Tarr M J. How are three-dimensional objects represented in the brain?[J].Cerebral Cortex, 1995, 5(3): 247-260.

[13] Tarr M J, Williams P, Hayward W G, et al. Three-dimensional object recognition is viewpoint dependent[J].Nature Neuroscience,1998,1(4): 275-277.

[14] Tarr M J, Bulthoff H H. Image-based object recognition in man. Monkey and machine[J].Cognition, 1998, 67(1-2): 1-20.

[15] Heckel B, Uva A E, Hamann B. Cluster-based generation of hierarchical surface models[C]//Proceedings of Scientific Visualization. Washington, DC, USA, 1997: 105-114.

[16] Katz S, Tal A. Hierarchical mesh decomposition using fuzzy clustering and cuts[J].ACM Transaction on Graphics, 2003,22(3): 954-961.

[17] Mangan A P, Whitaker R. T. Partitioning 3d surface meshes using watershed segmentation[J].IEEE Transactions on Visualization and Computer Graphics, 1999: 308-321.

[18] Shalfman S, Tal A, Katz S. Metamorphosis of polyhedral surfaces using decomposition[J].Computer Graphics Forum, 2002, 21(3): 219-228.

[19] Attene M, Katz S, Mortara M, et al. Mesh segmentation-a comparative study[C]//In SMI '06: Proceedings of the IEEE International Conference on Shape Modeling and Applications, Matsushima, 2006: 1-7.

[20] Garland M, Willmott A, Heckbert P S. Hierarchical face clustering on polygonal surfaces[C]//Proceedings Symposium on Interactive 3D graphics, New York, NY, USA, 2001: 49-58.

[21] Agathos A, Pratikakis I, Perantonis S, et al. 3D mesh segmentation methodologies for CAD applications[J].Computer-Aided Design &Applications, 2007,4(6): 827-841.

[22] Zuckerberger E, Tal A, Shlafman S. Polyhedral surface decomposition with applications[J].Computers and Graphics, 2002,26(5): 733-743.

[23] Shamir A. Segmentation and shape extraction of 3d boundary meshes (state-of-the-art report)[C]//In Eurographics, Vienna, Austria, 2006: 137-149.

[24] Shamir A. A formulation of boundary mesh segmentation[C]//Proceedings of the 3D Data Processing, Visualization, and Transmission. 2nd International Symposium, IEEE Computer Society, Washington, DC, USA, 2004: 82-89.

[25] Katz S, Leifman G, Tal A. Mesh segmentation using feature point and core extraction[J].The Visual Computer, 2005, 21(8):649-658.

[26] Lee Y, Lee S, Shamir A, et al. Mesh scissoring with minima rule and part salience[J].Computer Aided Geometric Design, 2005, 22(5): 444-465.

[27] Mortara M, Patanè G, Spagnuolo M, et al. Plumber: a multi-scale decomposition of 3d shapes into tubular primitives and bodies[C]//Proceedings of Solid Modeling and Applications, Genoa, Italy, 2004: 339-344.

[28] Attene M, Falcidieno B, Spagnuolo M. Hierarchical mesh segmentation based on fitting primitives[J].Visual Computer, 2006, 22(3): 181-193.

[29] Reniers D, Telea A. Skeleton-based hierarchical shape segmentation[C]//In SMI '07: Proceedings of the IEEE International Conference on Shape Modeling and Applications, IEEE Computer Society, Washington, DC, USA, 2007: 179-188.

[30] Li X, Woon T W, Tan T S, et al. Decomposing polygon meshes for interactive applications[C]//Proceedings of the 2001 Symposium on Interactive 3D Graphics, New York, USA: ACM, 2001: 35-42.

[31] Lien J M, Keyser J, Amato N M. Simultaneous shape decomposition and skeletonization[C]//Proceedings of ACM Solid and Physical Modeling Symposium (SPM), New York, USA, 2005: 219-228.

[32] Clarenz U, Griebel M, Schweitzer M A, et al. Feature sensitive multi-scale editing on surfaces[J].The Visual Computer, 2004, 20(5): 329-343.

[33] Borgefors G, di Baja G S, Svensson S. Decomposing digital 3d shapes using a multi resolution structure[C]// Proceedings of Discrete Geometry for Computer Imagery, Marne-la-Vallee, France, 1999: 19-30.

[34] Hisada M, Belyaev A G, Kunii T L. A skeleton-based approach for detection of perceptually salient features on polygonal surfaces[J].Computer Graphics Forum,2001, 21(4): 689-700.

[35] Provot L, Debled-rennesson I. Segmentation of noisy discrete surfaces[C]//12th International workshop on combinatorial Image Analysis,Buffalo,NY,United States, 2008, 4958:160-171.

[36] Wang Y, Gong M, Wang T, et al. Projective analysis for 3D shape segmentation[J].ACM Transaction on Graphics,2013, 32(6):article No.192:1-12.

[37] Lien J.M, Amato N M. Approximate convex decomposition of polyhedral[C]//ACM Symposium on Solid and Physical Modeling. Beijing, China, 2005: 121-131.

[38] Tung T, Schmitt F. Augmented reeb graphs for content-based retrieval of 3D mesh models[C]// International Conf. on Shape Modeling and Applications, Genova, Italy, 2004: 157-166.

[39] Lin H, Liao H Y M, Lin J. Visual salience-guided mesh decomposition[J].Multimedia IEEE Transaction on, 2007, 9(1): 46-57.

[40] Lai Y K, Hu S M, Martin R R, et al. Fast mesh segmentation using random walks[C]//Proceedings of the 2008 ACM symposium on Solid and Physical Modeling, Stony Brook, New York, 2008: 183-191.

[41] Gelfand N, Guibas L J. Shape segmentation using local slippage analysis[C]//Proceedings of the 2004 Eurographics/ACM SIGGRAPH Symposium on Geometry Processing, Nice, France, 2004: 214-223.

[42] Golovinskiy A, Funkhouser T. Randomized cuts for 3D mesh analysis[J].ACM Transactions on Graphics. 2008, 27(5):article No.145:1-12.

[43] Podolak J, Shilane P, Golovinskiy A, et al. A planar-re?ective symmetry transform for 3d shapes[J].ACM Transaction on Graphics, 2006, 25(3): 549-559.

[44] Liu R, Zhang H. Mesh segmentation via spectral embedding and contour analysis[J].Computer Graphics Forum, 2007, 26(3): 385-394.

[45] Liu R F, Zhang H, Shamir A, et al. A part-aware surface metric for shape analysis[J].Computer Graphics Forum,2009, 28(2): 397-406.

[46] Lukács G, Martin R, Marshall D. Faithful least-squares fitting of spheres, cylinders, cones and tori for reliable segmentation[C]//Proceedings of the 5th European Conference on Computer Vision-Volume I - Volume I (ECCV'98), London, UK, 1998: 671-686.

[47] Simari P, Singh K. Extraction and remeshing of ellipsoidal representations from mesh data[C]//Proceedings of Graphics Interface, Victoria, British Columbia, 2005: 161-168.

[48] Julius D, Kraevoy V, Sheffer A. D-charts: Quasi-developable mesh segmentation[J].Computer Graphics Forum, 2005, 24(3): 581-590.

[49] Thrun S, Wegbreit B. Shape from symmetry[C]//Proceedings of the Tenth IEEE International Conference on Computer Vision- Volume 2 (ICCV '05). Washington, DC, USA, 2005, 2: 1824-1831.

[50] Mitra N J, Guibas L J, Pauly M. Partial and approximate symmetry detection for 3d geometry[J].ACM Transaction on Graphics, 2006, 5(3): 560-568.

[51] Simari P, Kalogerakis V, Singh K. Folding meshes: Hierarchical mesh segmentation based on planar symmetry[C]//The Fourth Eurographics Symposium on Geometry Processing, Cagliari, Sardinia, Italy, 2006: 111-119.

[52] Chazelle B, Dobkin D P, Shouraboura N, et al. Strategies for polyhedral surface decomposition: an experimental study[J].Computational Geometry: Theory and Applications, 1997, 7(5-6): 327-342.

[53] Kraevoy V, Sheffer A. Variational meaningful shape decomposition[C]//ACM SIGGRAPH Sketches, Boston, Massachusetts, 2006,article No.50:1-2.

[54] Kreavoy V, Julius D, Sheffer A. Model composition from interchangeable components[C]//Proceedings of the 15th Pacific Conference on Computer Graphics and Applications, Washington, DC, USA, 2007: 129-138.

[55] Liu S, Martin R R, Langbein F C, et al. Segmenting reliefs on triangle meshes[C]//ACM Symposium on Solid and Physical Modeling, Cardiff, Wales, United Kingdom, 2006: 7-16.

[56] Liu S, Martin R R, Langbein F C, et al. Segmenting geometric reliefs from textured background surfaces[J].Computer-Aided Design and Applications, 2007, 4(5): 565-583.

[57] De Goes F, Goldenstein S, Velho L. A hierarchical segmentation of articulated bodies[C]//Eurographics Symposium on Geometry Processing, Copenhagen, Denmark, 2008: 1349-1356.

[58] Huang Q, Wicke M, Adams B, et al. Shape decomposition using modal analysis [J].Computer Graphics Forum, 2009, 28(2): 407-416.

[59] Agathos A, Pratikakis I, Perantonis S, et al. 3D mesh segmentation methodologies for CAD applications[J].Computer-Aided Design and Applications, 2007, 4(6): 827-841.

[60] Shamir A. A survey on mesh segmentation techniques [J].Computer Graphics Forum, 2008, 27(6):1539-1556.

[61] Chen X, Golovinskiy A, Funkhouser T. A benchmark for 3D mesh segmentation[J].ACM Transactions on Graphics, 2009, 28(3):article No.73:1-12.

[62] Kalogerakis E, Hertzmann A, Singh K. Learning 3D mesh segmentation and labeling[J].ACM Transactions on Graphics, 2010, 29(4):article No.102:1-12.

[63] Wu Z, Wang Y, Shoua R, et al. Unsupervised co-segmentation of 3D shapes via affinity aggregation spectral clustering[J].Computers & Graphics, 2013, 37(6):628-637.

[64] Golovinskiy A, Funkhouser T. Consistent segmentation of 3D models[J].Computers & Graphics (Proc. of SMI), 2009, 33(3): 262-269.

[65] Sidi O, Oliver V K, Yanir K, et al. Unsupervised co-segmentation of a set of shapes via descriptor-space spectral clustering[J].ACM Transactions on Graphics, 2011, 30(6):article No.126:1-10.

[66] Lei H P, Luo X N, Lin S J, et al. Automatic 3D shape co-segmentation using spectral graph method[J].Journal of Computer Science and Technology, 2013, 28(5): 919-929.

[67] Hu R, Fan L, Liu L. Co-segmentation of 3D shapes via subspace clustering[J].Computer Graphics Forum, 2012, 31(5): 1703-1713.

[68] Huang Q, Koltun V, Guibas L. Joint shape segmentation with linear programming[J].ACM Transactions on Graphics, 2011, 30(6):article No.125:1-12.

[69] Xu K, Li H, Zhang H, et al. Style-content separation by anisotropic part scales[J].ACM Transactions on Graphics, 2010, 29(5):article No.184:1-10.

[70] Les Z. Shape Understanding: possible classes of shapes[J]. International Journal of Shape Modeling, 2001, 7(1): 75-109.

[71] Les Z. Shape understanding system: understanding the thin object[J].International Journal of Computers and Graphics, 2002, 26(6): 951-970.

[72] Les Z, Les M. Shape understanding system: the visual reasoning process [J].International Journal of Pattern Recognition and Artificial Intelligence, 2003, 17(4): 663-683.

[73] Oliver V K, Xu K, Zhang H, et al. Co-hierarchical analysis of shape structures[J].ACM Transactions on Graphics, 2013, 32(4):article No.69:1-10.

[74] Attene M, Biasotti S, Mortara M, et al. Computational methods for understanding 3D shapes[J].Computers & Graphics, 2006, 30(3): 323-333.

[75] De Figueiredo R J P, Kehtarnavaz N. Model-based orientation-independent 3-D machine vision techniques[J].Aerospace and Electronic Systems IEEE Transactions on, 1988, 24(5): 597-607.

[76] Stein F, Medioni G. Structural indexing:efficient 3D object recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1992, 14(2): 125-145.

[77] Chin S C, Ray J. Point signatures:a new representation for 3D object recognition[J].International Journal of Computer Vision,1997, 25(1):63-85.

[78] Johnson A E, Hebert M. Using spin images for efficient object recognition in cluttered 3D scenes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1999, 21(5):433-449.

[79] Kuhl F, Giardina C. Elliptic Fourier features of a closed contour[J].Computer Graphics and Image Processing, 1982, 18(3):236-258.

[80] Persoon E, Fu K S. Shape discrimination using Fourier descriptors[J].IEEE Transaction on Pattern Analysis, Machine Intelligence, 1986, 8(3):388-397.

[81] Brechbühler C. Parametrization of closed surfaces for 3-D shape description[J].Computer vision and Image understanding,1995, 61(2):154-170.

[82] Li H D, Hartley R. New 3D Fourier descriptors for genus-zero mesh objects[C]//Proceedings of 7th Asian Conference on Computer Vision, Hyderabad, India, 2006, I: 734-743.

[83] Morris R J, Najmanovich R J, Kahraman A, et al. Real spherical harmonic expansion coefficients as 3D shape descriptors for protein binding pocket and ligand comparisons[J].Bioinformatics, 2005, 21(10): 2347-2355.

[84] Sijbers J, Ceulemans T, Van Dyck D. Algorithm for the computation of 3D Fourier descriptors[C]//16th international conference on pattern recognition, Los Alamitos, California, 2002, 2:790-793.

[85] Hilaga M, Shinagawa Y, Kohmura T, et al. Topology matching for fully automatic similarity estimation of 3D shapes[C]//Proceedings of SIGGRAPH, Los Angeles, USA, 2001: 203-212.

[86] Biasotti S. Topological techniques for shape understanding[C]//In: 5th Central European Seminar on Computer Graphics, Bratislava, Slovakia, 2001: 163-172.

[87] Tamal K D, Giesen J, Goswami S. Shape segmentation and matching with flow discretization[C]//Proceedings Workshop on Algorithms and Data Structure, Ottawa, Ontario, Canada, 2003, 2748: 25-36.

[88] Xiao Y J, Werghi N, Siebert P. A topological approach for segmenting human body shape[C]//12th International Conference on Image Analysis and Processing, Mantova, Italy, 2003: 82-87.

[89] Bespalov D, Ali S, William C R, et al. Scale-space representation of 3D models and topological matching[C]//8th ACM/SIGGRAPH Symposium on Solid Modeling and Applications, Seattle, Washington, 2003: 208-215.

[90] Hui A, De Floriani L. A two-level topological decomposition for non-manifold simplicial shapes[C]// Proceedings of the 2007 ACM symposium on Solid and physical modeling, ACM, New York, USA, 2007: 355-360.

[91] Schnabel R, Wahl R, Wessel R, et al. Shape recognition in 3D point clouds[C]//Computer Graphics Technical Reports CG-2007/1, Bonn, Germany, 2007:1-8.

[92] Zheng Y, Cohen-Or D, Mitra N J. Smart variations: functional substructures for part compatibility [J]. Eurographics. 2013, 32(2):195-204.

[93] Illingworth J, Kittler J. A survey of the hough transform[J]. Computer Vision, Graphics and Image Processing, 1988, 44(1): 87-116.

[94] Illingworth J, Kittler J. The adaptive hough transform [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1987, 9(5): 690-698.

[95] Xu L, Oja E. Randomized hough transform (RHT): basic mechanisms, algorithms, and computational complexities [J].CVGIP: Image Underst, 1993, 57(2): 131-154.

[96] Vosselman G, Gorte B G H, Sithole G, et al. Recognising structure in laser scanner point clouds[J].International Archives of Photogrammetry, Remote Sensing and Spatial Information Sciences, 2004, 46(8/W2): 33-38.

[97] Leonardis A, Gupta A, Bajcsy R. Segmentation of range images as the search for geometric parametric models[J].International Journal of Computer Vision, 1995, 14(3): 253-277.

[98] Várady T, Martin R R, Cox J. Reverse engineering of geometric models - an introduction[J].Computer-Aided Design, 1997, 29(4): 255-268.

[99] Nickolas S S, Besl P J. Direct construction of polynomial surfaces from dense range images through region growing [J].ACM Transactions on Graphics,1995, 14(2): 171-200.

[100] Benk P, Kos G, Várady T, et al. Constrained fitting in reverse engineering[J].Computer Aided Geometric Design, 2002, 19(3):173-205.

[101] Fischler M A, Bolles R C. Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography[J].Comm. of the ACM, 1981, 24(6): 381-395.

[102] Bolles R C, Fischler M A. A ransac-based approach to model fitting and its application to finding cylinders in range data[C]//Proceedings of the 7th International Joint Conference on Artificial Intelligence, Vancouver, BC, Canada, 1981: 637-643.

[103] Chaperon T, Goulette F. Extracting cylinders in full 3d data using a random sampling method and the Gaussian image[C]//Proceedings of the Vision Modeling and Visualization Conference, 2001:35-42.

[104] Roth G, Levine M D. Extracting geometric primitives[J]. CVGIP: Image Underst, 1993, 58(1):1-22.

[105] Zheng Q, Sharf A, Wan G, et al. Non-local scan consolidation for 3d urban scenes[J].ACM Transactions on Graphics, 2010, 29(4):article No.94:1-9.

[106] Chen T W, Lin W C. A neural network approach to CSG-based 3D object recognition[J].Pattern Analysis and Machine Intelligence, 1994, 16(7): 719-726.

[107] Zheng B, Zhao Y, Yu J, et al. Beyond point clouds: scene understanding by reasoning geometry and physics[C]//IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Portland/USA,2013: 3127-3174.

[108] Somani N, Dean E, Cai C, et al, Perception and reasoning for scene understanding in human-robot interaction scenarios[C]//The 15th International Conference of Computer Analysis of Images and Patterns, York, UK. 2013: 1-15.

[109] Xu K, Ma R, Zhang H, et al. Organizing heterogeneous scene collection through contextual focal points[J].ACM Transactions on Graphics (Proceedings of SIGGRAPH 2014),2014,33(4):1-12.

[110] Adan A, Adan M. A flexible similarity measure for 3D shapes recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(11): 1507- 1520.

[111] Mian A S, Bennamoun M, Owens R. Three-dimensional model-based object recognition and segmentation in cluttered scenes[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2006, 28(10): 1584-1601.

[112] Ruiz-Correa S, Shapiro L G, Melia M. A new signature-based method for efficient 3D objects recognition[C]//Computer Vision and Pattern Recognition,Kauai, HI, USA, 2001, 1: I-769- I-776.

[113] Frome A, Huber D, Kolluri R, et al. Recognizing objects in range data using regional point descriptors[C]//In ECCV, Prague, Czech Republic, 2004, 3023:224-237.

[114] Rabbani T, van den Heuvel F, Vosselmann G. Segmentation of point clouds using smoothness constraint[C]//In IEVM06, Dresden,2006, XXXVI(5):248-253.

[115] Unnikrishnan R, Hebert M. Robust extraction of multiple structures from non-uniformly sampled data[C]//In IROS, Las Vegas, 2003, 2: 1322-1329.

[116] 魏永超,刘长华,杜冬.基于曲面分割的三维点云物体识别[J].光子学报,2010, 39(12):2268-2273.

Wei Yongchao, Liu Changhua, Du Dong. 3D Points Cloud object recognition based on surface segmentation[J].Acta Photonica Sinica,2010, 39(12):2268-2273.

[117] Himmelsbach M, Luettel T, Wuensche H J. Real-time object classification in 3D point clouds using point feature histograms[C]//Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, St. Louis, MO, 2009: 994-1000.

[118] Anguelov D, Taskarf B, Chatalbashev V, et al. Discriminative learning of markov random fields for segmentation of 3D scan data[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, CA, USA, 2005, 2: 169-176.

[119] Agrawal A, Nakazawa A, Takemura H. MMM-classification of 3D range data[C]//Proceedings of the IEEE International Conference on Robotics and Automation. Kobe, Japan, 2009: 2269-2274.

[120] Lalonde J F, Unnikrishnan R, Vandapel N, et al. Scale selection for classification of point-sampled 3d surfaces [C]//In Fifth International Conference on 3-D Digital Imaging and Modeling, Ottawa, Ontario, Canada, 2005: 285-292.

[121] Lai K, Bo L, Fox D. Unsupervised feature learning for 3D scene labeling[C]//In IEEE International Conference on Robotics and Automation (ICRA), Hongkong, China, 2014: 1-8.

[122] Golovinskiy A, Kim V G, Funkhouser T. Shape-based recognition of 3D point clouds in urban environments[C]//ICCV 2009, Kyoto, 2009: 1-10.

[123] Kada M, Haala N, Becker S. Improving the realism of existing 3d city Models [J]. Innovations in 3D Geo Information Systems, 2006: 405-415.

[124] Dorninger P, Pfeifer N. A comprehensive automated 3d approach for building extraction, reconstruction, and regularization from airborne laser scanning point clouds[J]. Sensors, 2008, 8(11): 7323-7343.

[125] Pu S, Vosselman G. Knowledge based reconstruction of building models from terrestrial laser scanning data[J].ISPRS Journal of Photogrammetry and Remote Sensing, 2009, 64 (6): 575-584.

[126] Wang Y, Weinacker H, Koch B. A lidar point cloud based procedure for vertical canopy structure analysis and 3d single tree modeling in forest[J].Sensors,2008,8(6):3938-3951.

[127] Xu H, Gossett N, Chen B. Knowledge and heuristic-based modeling of laser scanned trees[J].ACM Transaction on Graphics, 2007, 26(4):article No.19:1-9.

[128] Dai M, Zhang X, Zhang Y, et al. Segmentation of point cloud scanned from trees[C]//Proceedings of Workshop on 3D content and applications with ACCV, Xi'an, China, 2009:1-12.

[129] Patterson A, Mordohai P, Daniilidis K. Object detection from large-scale 3D datasets using bottom-up and top-down descriptors[C]//ECCV, Marseille France, 2008: 553-566.

猜你喜欢
描述符形状语义
基于结构信息的异源遥感图像局部特征描述符研究
基于AKAZE的BOLD掩码描述符的匹配算法的研究
语言与语义
基于深度学习的局部描述符
你的形状
火眼金睛
特征联合和旋转不变空间分割联合的局部图像描述符
“社会”一词的语义流动与新陈代谢
“上”与“下”语义的不对称性及其认知阐释
“吃+NP”的语义生成机制研究