COVID-19医学影像数据集及研究进展

2021-11-26 07:21尚媛园邵珠宏
计算机工程与应用 2021年22期
关键词:肺部病灶分类

刘 锐,丁 辉,2,尚媛园,2,邵珠宏,3,刘 铁,4

1.首都师范大学 信息工程学院,北京100048

2.成像技术北京市高精尖创新中心,北京100048

3.高可靠嵌入式系统技术北京市工程研究中心,北京100048

4.电子系统可靠性技术北京市重点实验室,北京100048

医学影像用于疾病的辅助诊断,已经成为一种常见、有效的方法。自COVID-19爆发以来,虽然CT影像对早期的新冠病变特征缺乏一定的敏感性,但利用CT影像对新冠肺炎患者进行辅助诊断和治疗跟踪,以及利用X 射线图像进行辅助检测仍然是一种必要的辅助方法[1-3]。目前,利用人工智能技术对新冠CT影像和CXR影像进行图像分类和病灶分割已经成为医学图像分析中广泛关注的内容,学者们也开展了大量的相关研究。

数据集和算法模型是当前基于深度学习方法开展研究最重要的两大因素。在新冠肺炎爆发初期,由于涉及到患者隐私,很少公开相关COVID-19 影像数据集,多数研究工作使用的COVID-19 影像数据集包含几十到几百张的图像数据。也有些论文采用了数据较多的私有数据集,但这些数据集不支持广泛使用[4-8]。由于缺乏足够的训练数据,大部分研究工作采用数据增强(Data Augmentation)方式扩充训练集,并提出了多种基于小样本COVID-19数据集的检测分割模型。

随着相关研究工作的展开和医学图像数据的积累,陆续有多个大型COVID-19 影像数据集公开发布。本文通过对不同文献和报道中提到的大量分散的开源数据集进行梳理,提供相关描述和下载链接;分析并综述COVID-19图像分类和图像分割主流算法模型和应用特点;对CT影像和CXR影像的特征进行描述。

1 COVID-19影像表现

计算机断层扫描图像(CT)和X射线(CXR)图像是常见的,也是重要的胸部医学影像数据。在医学影像分析中,病灶影像的统计和纹理特征是非常重要的图像检测与识别依据,被广泛地应用于定量化描述病灶图像的特性[9]。

1.1 影像特征

1.1.1 统计特征

医学影像大多数为灰度图像,且灰度值统计呈现低对比灰度特性。以下介绍两种在医学影像中能比较有效进行灰度区分的统计特征。

偏度:相对于灰度均值不对称程度的度量。通过对偏度系数的测量,能够判定数据分布的不对称程度以及方向。其公式如下:

式中,σ为标准方差;m为平均灰度;rj为直方图上概率密度不为0的灰度值;p(rj)为rj对应的概率密度。

熵:反映了图像中平均信息量的多少,常用于描述图像的复杂度。用p(rj)表示rj对应的概率密度,则熵的定义如下:

1.1.2 纹理特征

纹理特征通常不是从图像上直接得出的,而是先通过某种计算将原始图像的特性提取出来并存在一个中间矩阵中。在医学影像研究中,最常用的一种纹理特征就是灰度共生矩阵[10-12],并以灰度共生矩阵的一些特性进行度量。以下是逆差距和相关性的定义。

逆差距:反映图像纹理的局部变化。其公式如下:

式中,pij为位置j距离位置i在指定距离为d时出现次数的归一化计数。

自相关:反映图像纹理的相似程度。其公式如下:

式中,mr和mc分别是行和列的均值,σr和σc分别是行和列的标准差。

1.2 CT影像表现

胸部计算机断层扫描是一种非侵入式扫描,以获取患者胸部的精确图像。对不同严重程度的COVID-19 患者,其胸部CT图像表现不同的特征[13]。

COVID-19 患者在肺部CT 上最常见的表现为毛玻璃混浊(GGO)和实变(CL)。当病情加重时,GGO和实变数量增加,并且主要分布于肺边缘;而随着疾病改善,病灶逐渐被吸收形成纤维化条纹[14-19]。多数患者同时还会表现出小叶间隔增厚、支气管血管增厚等影像特征[20]。图1为患者肺部CT影像学表现。

图1 COVID-19患者肺部CT图像Fig.1 CT image of lungs of a COVID-19 patient

结合图像的统计特征,在CC-CCII数据集[21]中随机选取COVID-19 中的三组正常和感染的肺部CT 样本,对病灶及正常肺组织区域的统计特征进行分析和对比,结果如表1所示。CC-CCII数据集是目前数据图像比较清晰,且具有较好分割标签的分割数据集,将在2.1节中详细介绍。

表1 病灶和正常组织CT图像纹理特征分析Table 1 CT image texture features of lesions and normal tissues

从表1 中可以看出,病灶区域和正常组织的标准差、偏度以及熵方面数值明显不同。病灶区因为具有毛玻璃特性,所以均值更高,而且不对称性高,偏度值较小。基于统计特征,虽然不能明显用于病灶检测与判断,但这些特征的差异性对深度学习网络的特征学习和结构设计具有一定的参考价值。

1.3 X射线影像表现

与CT 扫描断层成像相比,X 射线的CXR 图像更容易获得,从而广泛用于胸部的影像检测。在COVID-19影像诊断中,使用CXR 的主要障碍是缺乏可以通过视觉确认的细节,CXR影像表现为空域浑浊,主要分布于肺边缘[22],如图2所示。实际使用中,通常将CXR与CT结合进行更好的诊断分析[23]。

图2 正常和COVID-19患者肺部CXR图Fig.2 Lungs CXR of normal and COVID-19 patients

由于CXR 影像缺少细节信息,从而对整幅图像的纹理特征进行对比。在COVID-19 Radiography Database数据集[24]中分别随机选取三组正常和患者的肺部CXR样本。COVID-19 Radiography Database数据集的介绍在2.2节中进行。

采用纹理特征分析的结果如表2 所示,正常肺的CXR 图像和感染COVID-19 肺的CXR 图像相比,在基于灰度共生矩阵的纹理特征上具有一定的差异性。但有些差异不是很明显,只有对比度的数据差异较明显,感染者图像的对比度是正常肺图像的2~3倍。

表2 正常和患者胸部CXR图像纹理特征分析Table 2 CXR texture features of normal and patient’s chest

2 相关开源数据集

数据集是构建基于深度学习的COVID-19 诊断和分割模型的重要基础,尤其是能开源下载的数据集[25]。本文整理了目前比较重要的18 个相关数据集,其中13个数据集包含CT影像,8个数据集包含CXR影像。表3列出各数据集的数据类型、数量和数据来源,并对其使用进行了描述。

表3 18个开源数据集Table 3 18 open-source datasets

由于肺部CT图像携带更多的细节信息,CT数据集被广泛运用于COVID-19的检测与分割,而CXR数据集多用于COVID-19 的检测[40]。这些数据集中的图像包含.nii.gz、JPG、PNG 和DICOM 等多种格式存储。附录中表A1给出了所有数据集的图例。

2.1 CT分割数据集

构建用于COVID-19 病灶分割的数据集需要大量的标注工作,经过整理和查找,目前可用于COVID-19分割的开源数据集有以下5个。

(1)COVID-19-CT-Seg 数据集(http://medicalsegmentation.com/covid19/):该数据集由意大利医疗和介入放射协会收集,包含超过40名COVID-19患者的100张CT图像。用于训练COVID-19病灶分割模型,标签包含毛玻璃影、实变和胸腔积液。该数据集在病灶分割中最常见。

(2)Segmentation dataset nr.2数据集(http://medicalsegmentation.com/covid19/)该数据集源于Radiopaedia中9例新冠肺炎患者的三维CT影像。共包含829张切片,并对其中373张切片进行了标注,标签包含肺和感染区域。

(3)COVID-19-CT-Seg-Benchmark 数据集(https://zenodo.org/record/3757476#.YAj7HO):该数据集由Ma等创建[26],包含20 例标记的COVID-19 患者肺部三维CT影像,切片大小为512×512 像素。分割标签包含左肺、右肺和感染区域。

(4)COVID19_1110 数据集(https://mosmed.ai/datasets/covid19_1110):该数据集[27]由莫斯科医院提供,包含1 100例COVID-19患者三维肺部CT图像,切片大小为512×512像素。其中50例带有分割标签,对毛玻璃影和实变区域进行标注,用于病灶区域分割。

(5)CC-CCII 数据集(http://ncov-ai.big.ac.cn/download):该数据集存储于国家生物信息中心,包含COVID-19肺炎(NCP)、普通肺炎(CP)和正常(Normal)。其中对来自150例患者的共750张CT切片手动标注为背景、肺部、GGO和CL,用于分割。该数据集图像大小均为512×512像素,且图像清晰,适合分类和分割任务。Zhang等人[21]公布了该数据集,并利用该数据集开发辅助诊断AI系统,检测并分割COVID-19 病灶区域,并进一步分析影像特征与临床数据的相关性。

在病灶分割领域中,COVID-19-CT-Seg 和CC-CCII数据集包含带有标签的二维CT 图像。对于三维CT 影像,经过切片后可采用对比度增强方法提升图像质量,以构建数量更多的二维分割数据集。

2.2 CT分类数据集

COVID-CT-Dataset(https://github.com/UCSD-AI4H/COVID-CT)和SARS-CoV-2 CT(https://www.kaggle.com/plameneduardo/sarscov2-ctscan-dataset)是早期最常用的二分类诊断数据集[28-29],但这些数据集样本数量太少且图像大小不统一。COVID-19-CT-CXR(https://github.com/ncbi-nlp/COVID-19-CT-CXR)数据集[35]是从PubMed Central Open Access(PMC-OA)文章中提取的,数据质量不高。以下是整理的目前3 个数据质量较好且数量充足的CT分类数据集。

(1)COVID-CTset数据集(https://github.com/mr7495/COVID-CTset):该数据集由伊朗Sari的Negin医疗中心收集[30],包含95名患者和282名正常的CT影像,分辨率均为512×512像素。区别于其他数据集,该数据集图像的灰度级为16 位,在目前整理的数据集中图像质量最高,用于二分类检测。

(2)CT-COVID-19-August2020 数据集(https://wiki.cancerimagingarchive.net/display/Public/COVID-19):该数据集[32]在癌症影像档案馆(TCIA)上发布,包括两部分,第一部分包含632 名COVID-19 感染患者的650次肺部CT 扫描,第二部分包含29 名患者的121 次CT 扫描。TCIA 是一个医学图像的大规模公用数据库,包含多种肿瘤数据,其影像模态包括MRI、CT 等,并且网站内数据在持续增加,提供影像数据的来源接口。

(3)HUST-19 数据集(http://ictcf.biocuckoo.cn/):该数据集由华中科技大学提供,并开发了一个以患者为中心的资源库(iCTCF),包含COVID-19、正常和可疑患者的肺部CT切片以及相应的临床数据。其中手动标记了19 685张CT影像用于模型训练。Ning等[31]开发一套混合学习模型,通过整合CNN对影像分类结果和DNN对临床数据分类结果预测患者的严重程度以及死亡率。

2.3 CXR数据集

CXR影像数据集通常包括COVID-19阳性、其他病毒性肺炎和正常的胸部X射线图像。pneumonia-chestxray dataset(https://www.kaggle.com/paultimothymooney/chestxray-pneumonia)来自广州市妇幼保健中心[33],该数据集不包含COVID-19CXR影像,但常用于数据扩充。COVIDchestxray-dataset(https://github.com/ieee8023/covid-chestxraydataset)来自在线开源数据、网站以及文献中的图片[34],该数据集公开较早,但数据量较少。COVID-19 Radiography Database(https://www.kaggle.com/tawsifurrahman/covid19-radiography-database)由卡塔尔大学和达卡大学的研究人员合作建立[24],该数据集包含3 616张COVID-19 阳性、1 345 张病毒性肺炎、6 012 张肺部不透明(非COVID-19)和10 192张正常图像。

2.4 CT和CXR混合数据集

(1)COVID-19-AR数据集(https://wiki.cancerimagingarchive.net/display/Public/COVID-19):该数据集[36]是TCIA上发布的,其中包括105 名患者的233 次CXR 和23 次CT扫描,图片总数为31 935张。所有图像数据以DICOM标准格式存储。每个患者都有一组临床数据来描述。

(2)BIMCV COVID-19+数据集(https://osf.io/nh7g8/):该数据集来源于巴伦西亚医学图像存储库(BIMCV)[37],其中包含COVID-19 患者的胸部CXR 和CT 图像,以及相关临床数据。此外,一组放射线专家对23 张图像进行标注,用于病灶区域的语义分割。

(3)MIDRC-RICORD 数据集(https://wiki.cancerimagingarchive.net/display/Public/COVID-19):该数据集[38]也是在TCIA上发布,包括CT扫描和X射线扫描。其中所有COVID-19 CT 图像的病灶区域进行逐像素标注,所有X光片进行了分类标记。该数据集有三部分,共包含240例CT和1 000例CXR影像。

(4)COVIDx数据集(https://github.com/lindawangg/COVID-Net):该数据集[39]来源于COVID-Net开源计划,由加拿大达尔文AI公司和加拿大滑铁卢大学视觉与图像处理研究组负责维护。在最新的COVIDx8B版本中,包含16 352 张CXR 影像,在COVIDx-CT 版本中包含194 922个CT图片。

在分类领域中,国内发布的CC-CCII 和HUST-19 CT 影像数据集质量可靠,期待更多的模型在此数据集上训练对比;TCIA上发布的CT-COVID-19-August2020、COVID-19-AR 和MIDRC-RICORD 数据集中包含高质量的CT 和CXR 影像数据,但这些数据以患者为单位,研究人员需要在此数据集上重新构建适合深度学习模型训练的数据集,具有潜在的研究价值。

3 基于深度学习的研究模型

基于深度学习的COVID-19 研究可以从模型任务(分类或分割)角度进行分类与阐述。不同严重程度的肺部病灶表现有所差异,给分类分割任务带来一定挑战。卷积神经网络(Convolutional Neural Network,CNN)通过学习图像的高级特征,并将其映射为一维向量,经过softmax层输出分类结果;分割基于U型结构,编码器先通过卷积提取特征,解码器再通过反卷积进行像素分类,最终输出分割标签。图3为CNN在不同任务中的应用结构。

图3 卷积神经网络在不同任务中的应用Fig.3 Application of convolutional neural network in different tasks

随着大量数据集公布,高质量的数据集可以帮助模型精确地提取病灶特征,多数数据集已被科研工作者使用,用于COVID-19 的高效诊断和预后。图4 为各数据集的使用情况总结。

由图4 可以看出,分类的数据集较多,分类检测的应用要多于病灶区域分割,多数模型在多个数据集上训练,以提高模型泛化能力。一些开源较早的数据集使用得较多,部分数据集还未获得广泛使用。

图4 各数据集中模型使用情况总结Fig.4 Summary of model usage in each dataset

3.1 COVID-19分类模型

对于新冠肺炎的分类任务,一般多为二分类(区分COVID-19和非COVID-19)和三分类(区分COVID-19、普通肺炎和正常)。

3.1.1 CT图像分类

对CT影像的分类模型的性能对比见表4所示。3D分类模型一般效果好于2D 模型,但目前没有普遍可用的3D预训练模型,且3D模型参数量较大,在数据量较少的情况下难以收敛,容易过拟合。在COVID-CT-Dataset上训练的模型分类效果不佳,原因可能与数据量太少或质量不好有关。在SARS-CoV-2 CT数据集上,DenseNet201的分类表现最好。

表4 CT数据集上分类模型性能对比Table 4 Performance comparison of classification models on CT datasets

(1)常见骨干网络

采用常见的骨干网络(包括VGG、ResNet、DenseNet等)进行有效的特征提取,并用于后续的融合、分类等操作。Li 等[41]通过对比不同的3D ResNet,发现输入深度为4 且批量为32 切片时3D ResNet-18 分类效果最好。Benmalek等[52]通过对比Resnet-18、InceptionV3和Mobile-NetV2在CT和CXR上的分类性能,发现ResNet-18在CT上精度最高,InceptionV3在CXR上精度最高。Yang等[28]训练DenseNet-169 用于COVID-19 的检测,利用特征提取网络和空洞空间金字塔池化(Atrous Spatial Pyramid Pooling,ASPP)提取更准确的特征。Peng等[35]在COVID-19-CT-CXR 数据集上训练DenseNet121 对CT 分类性能测试。Rahimzadeh 等[30]使用ResNet50v2 和修改的特征金字塔结构,在COVID-CTset上提高分类准确性。

(2)数据增强

为了避免模型训练过拟合和提高模型分类的准确度,常使用数据增强方法扩充数据集。常用的数据增强方法包括有监督的几何变换和无监督GAN(Generative Adversarial Network)[53]。Jaiswal 等[48]对SARS-CoV-2 CT 数据集进行旋转、倾斜、翻转以及像素填充等操作。Li等[45]对COVID-CT-Dataset使用仿射变换和平移等操作。此外,多数模型使用无监督GAN增强数据。Mobiny等[47]使用基于条件生成对抗网络(CGAN)的pix2pix 网络在COVID-CT-Dataset 上生成图像。Jiang 等[54]利用循环生成对抗网络(CycleGAN)在大规模的肺癌数据集上生成GGO 图像。He 等[42]在三维模型中使用混合数据增强(mixup)[55]方法,并证明该方法可以有效地提高模型精度。Loey等[46]使用传统数据增强和CGAN的结合,改善了实验准确性和性能。

(3)迁移学习

使用迁移学习的方法也可以弥补数据集不足的问题,通常加载ImageNet上的预训练参数。Jaiswal等[48]使用深度迁移学习模型(Deep Transfer Learning,DTL),通过使用预训练的DenseNet201 在SARS-CoV-2 CT 数据集上训练。Loey 等[46]使用五种深度迁移学习模型在COVID-CT-Dataset 上进行训练,并结合数据增强,结果表明ResNet50 的分类效果最好。Li 等[45]提出了一种基于迁移学习的COVID-19检测方法,通过微调预先训练好的CheXNet[56]模型在COVID-19-Dataset上进行实验。

(4)集成学习

使用集成学习集成多个分类模型,通过投票等方式决定分类结果,可以有效提高分类准确度。Gifani 等[44]使用15 种不同的预先训练好的分类模型用于分类任务,利用集成学习方法在COVID-CT-Dataset进行训练,采用投票数输出分类结果。

(5)轻量级模型

针对COVID-19数据集的特点以及分类任务,多篇文献提出轻量级的分类模型。Mobiny 等[47]提出了面向细粒度识别的胶囊网络(CapsNet)结构DECAPS,利用激活图裁剪并提取感兴趣区域的细粒度表示。He等[42]设计了基于强化学习的神经结构搜索(Neural ArchitectureSearch,NAS)[57]方法生成轻量级三维模型MNas3DNet41,通过堆叠预定义的单元构建模型。Gunraj 等[51]提出了针对肺炎CT图像分类的模型COVIDNet-CT,通过堆叠映射-复制-映射-扩展(PRPE和PRPE-S)的模块。Wang等[50]提出了一种联合学习方案,通过从异构数据集中学习改善诊断效果。Shah等[43]提出CTnet-10模型,并与五种模型对比,VGG-19 的分类效果最佳,但CTnet-10 的预测时间最短。

3.1.2 CXR图像分类

CXR 分类模型与CT 分类模型类似,使用数据增强、迁移学习、集成学习等方法,分类准确度较高。值得注意的是,一些轻量级CNN 往往比复杂结构的分类效果更好。CXR影像分类模型的性能对比见表5。

表5 CXR数据集上分类模型性能对比Table 5 Performance comparison of classification models on CXR datasets

在数据增强方面,Ragb等[58]、Sousa等[59]和Chouhan等[60]均采用传统有监督数据增强方法。Khalifa 等[61]采用无监督GAN 扩充数据集。在迁移学习方面,Ragb 等[57]、Chouhan 等[60]和Khalifa 等[61]均使用在ImageNet 上预先训练好的模型作为骨干网络。区别于使用ImageNet上的预训练模型,Hertel 等[64]通过预先在ChestX-ray14 数据集[65]上进行训练,提高了对病灶区域特征的捕捉能力。在集成学习方面,Ragb 等[57]集成了3 个分类模型,Chouhan 等[60]集成5 个分类模型,通过投票决定分类结果以提高分类准确度。Qi 等[63]通过增强图像局部相位信息作为数据扩充输入到神经网络中,并结合半监督训练方法,利用小型已标记的数据训练大型未标记数据。

通过设计轻量级的X 射线分类模型,减少模型参数,也能达到很好的表现。Wang 等[39]提出一种轻量级的CXR 分类模型COVID-Net,使用PEPX 模块,即通过1×1卷积实现映射到扩展到映射到扩展的设计模式,分类效果超过VGG-19和ResNet-50。

3.2 COVID-19分割模型

COVID-19 病灶区域的分割主要用于CT 影像上。目前用于分割的数据集较少,并且COVID-19病灶边缘模糊,导致针对病灶区域分割的Dice 指标还未达到90%,模型的泛化能力也不强,该分割领域仍然存在挑战。各模型间的分割性能对比如表6所示。

表6 各分割模型性能对比Table 6 Performance comparison of each segmentation model

(1)数据增强

宋瑶等[73]对现有的数据集图像和标签同时随机旋转、裁剪和翻转,采用ImageNet 上预先训练的Efficient-Net-B0作为特征提取器,并通过Dusampling上采样[75]代替传统的上采样结构以改进U-Net。使用GAN 网络合成感染图像,一定程度上解决数据标注困难的问题。Jiang 等[70]提出了一种基于CGAN 的CT 图像合成方法用于COVID-19 分割,在生成器上使用动态元素加权(Dynamic Element-wise Sum,DESUM),在判别器上使用动态特征匹配(Dynamic Feature Matching,DFM),提高合成图像的质量。Zhang等[71]提出了一种生成模型CoSinGAN,结合GAN 和特征金字塔结构,通过条件约束和跨尺度重建图像细节。

(2)注意力机制

结合注意力机制可以更好地突出分割区域特征,丰富上下文依赖信息。Zhou 等[68]提出了将注意力机制结合到U-Net 架构,引入scSE 注意力模块,捕获上下文信息以获得更好的特征表示;在编码器和解码器部分使用扩张卷积的残差块(Res_dil),以增加感受野。Rajamani等[69]提出一种动态可变形的注意力网络DDANet,将CCA(Criss-Cross Attention)模块[76]引入到U-Net架构中以连续学习注意力系数,该模型分割效果较U-Net和Inf-Net有了明显的提升。Zhao 等[72]提出一种扩张卷积的双重注意力机制模型(D2A U-Net)自动分割CT切片中的肺部感染,通过扩张卷积增大感受野,防止信息丢失。同时,引入门控注意力模块(Gate Attention Module,GAM)和解码注意力模块(Decoder Attention Module,DAM)细化特征,GAM 融合丰富的语义特征,DAM 提高解码质量。

(3)轻量级模型

为适应数量不足的分割数据集,相对轻量级的基于小样本数据集的模型相继被提出。Fan等[66]提出了一种COVID-19 病灶区域CT 分割模型Inf-Net,该网络利用反向注意力(Reverse Attention,RA)模块和边缘注意力(Edge Attention,EA)模块来改进感染区域边界的识别。Qiu等[67]提出了MiniSeg模型,结合注意层次空间金字塔(Attentive Hierarchical Spatial Pyramid,AHSP)模块,进行有效的多尺度学习,并且证明了相同数据集上,该模型比Inf-Net的分割效果更好。

4 结束语

本文主要对新冠肺炎不同的影像学数据集在不同任务下的应用进行分析,收集和整理了18 个开源影像数据集,其中13个包含CT影像和8个包含CXR影像的数据集,提供了这些数据集的描述和下载链接。由于数据集来源于不同国家、不同机构和不同设备,采集的影像数据在质量上参差不齐,而且缺乏一定的质量标准,导致一些数据集不能被很好地使用。因此,借鉴TCIA上对影像数据采集的一些标准,建议在进行新数据采集时,应对影像数据格式的一致性、元数据(数据、日期、位置、影像的分辨率等)的规范性和数据标签的完整性进行统一的规范要求,或开展采集图像质量评价标准的研究。此外,由于医学影像数据经常包括患者的个人信息,在数据集采集中应进行去隐私化,使图像和病灶标记信息与病人信息分离。

结合COVID-19图像的分类和分割任务,对目前主流的深度学习算法模型中的应用进行了比较。注意力机制思想在医学图像分析中取得较为明显的效果,但目前使用的都是全局注意力机制,医学影像病灶区域具有典型的局部特性,局部注意力机制的研究会成为未来一个更为有效的研究思路。同时,小样本集和数据不均衡方法的研究也仍然是医学图像处理领域值得深入讨论的问题。

附录

文中共整理了18个COVID-19图像数据集,包括二维肺部图像以及三维图像的二维切片,表A1 展示了图像大小、存储格式、特点以及图像示例信息。

表A1 各数据集部分信息统计Table A1 Partial information statistics of each dataset

猜你喜欢
肺部病灶分类
分类算一算
Optimal UAV deployment in downlink non-orthogonal multiple access system: a two-user case
PSMA-靶向18F-DCFPyL PET/CT在肾透明细胞癌术后复发或转移病灶诊断中的作用分析
《结缔组织疾病肺部表现》已出版
《结缔组织疾病肺部表现》已出版
分类讨论求坐标
《结缔组织疾病肺部表现》已出版
《结缔组织疾病肺部表现》已出版
数据分析中的分类讨论
教你一招:数的分类