波谱学杂志, 2022, 39(2): 196-207 doi: 10.11938/cjmr20212921

研究论文

基于全卷积网络的乳腺肿瘤动态增强磁共振图像分割

邱玥1, 聂生东1, 魏珑,2

1. 上海理工大学 医疗器械与食品学院,医学影像工程研究所,上海 200093

2. 山东建筑大学 计算机科学与技术学院,山东 济南 250101

Segmentation of Breast Tumors Based on Fully Convolutional Network and Dynamic Contrast Enhanced Magnetic Resonance Image

QIU Yue1, NIE Sheng-dong1, WEI Long,2

1. Institute of Medical Imaging Engineering, School of Medical Instrument and Food Engineering, University of Shanghai for Science and Technology, Shanghai 200093, China

2. School of Computer Science and Technology, Shandong Jianzhu University, Jinan 250101, China

通讯作者: 魏珑, Tel: 15863409839, E-mail:weilong_2046@163.com

收稿日期: 2021-05-21  

基金资助: 国家自然科学基金资助项目.  81830052
上海市科技创新行动计划资助项目.  18441900500
上海市自然科学基金资助项目.  20ZR1438300
山东省自然科学基金资助项目.  ZR2021MH160

Received: 2021-05-21  

摘要

准确可靠的乳腺肿瘤分割是乳腺癌诊断、治疗、预后评估的关键.针对现有的基于动态增强磁共振成像(DCE-MRI)的乳腺肿瘤分割方法易遗漏小目标肿瘤等不足,本文提出了一种基于全卷积网络的可靠高效的乳腺肿瘤DCE-MRI图像分割方法.首先,对乳腺DCE-MRI数据进行预处理后,截取128*128大小的图像块,并以肿瘤区域像素数为依据将数据分为两个子数据集;其次,利用数据集训练CBP5-Net得到分类模型;然后,利用两个子数据集分别训练RAU-Net得到两个分割模型;最后,将测试集数据送到网络输入端,并对网络输出结果进行后处理,得到最终的乳腺肿瘤分割结果.利用本文提出的方法得到的Dice系数、敏感性、特异性和交并比(IoU)分别达到了0.938 8、0.952 3、0.998 5和0.876 8,说明利用本文方法能够有效、精确地分割乳腺肿瘤DCE-MRI图像.

关键词: 全卷积网络(FCN) ; 图像分割 ; 乳腺肿瘤 ; 动态对比增强磁共振成像(DCE-MRI)

Abstract

Accurate and reliable breast tumor segmentation is essential for the diagnosis, treatment and prognosis of breast cancer. To address the shortcomings of existing dynamic contrast enhanced-magnetic resonance imaging (DCE-MRI)-based breast tumor segmentation methods, which tend to miss small tumors, we proposed a more reliable and efficient segmentation method for breast tumors in DCE-MRI based on a fully convolutional network (FCN). Firstly, the breast DCE-MRI data was preprocessed, followed by intercepting the image blocks of 128*128, and dividing the dataset into two sub-datasets according to the number of pixels in the tumor region. Secondly, the whole set was used to train CBP5-Net to obtain a classification model. Then, two sub-datasets were used to train RAU-Net to get two segmentation models. Finally, the test set was entered into the network, and the network outputs were post-processed to obtain the final segmentation results. The Dice coefficient, sensitivity, specificity and intersection over union (IoU) index of the method proposed in this paper reached 0.938 8, 0.952 3, 0.998 5 and 0.876 8, respectively. It proves that the proposed method can be used to segment DCE-MRI breast tumors effectively and accurately.

Keywords: fully convolutional network (FCN) ; image segmentation ; breast tumor ; dynamic contrast enhanced-magnetic resonance imaging (DCE-MRI)

PDF (1428KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

邱玥, 聂生东, 魏珑. 基于全卷积网络的乳腺肿瘤动态增强磁共振图像分割. 波谱学杂志[J], 2022, 39(2): 196-207 doi:10.11938/cjmr20212921

QIU Yue. Segmentation of Breast Tumors Based on Fully Convolutional Network and Dynamic Contrast Enhanced Magnetic Resonance Image. Chinese Journal of Magnetic Resonance[J], 2022, 39(2): 196-207 doi:10.11938/cjmr20212921

引言

乳腺癌是最常见的全球性女性健康问题之一[1],且发病年龄呈年轻化趋势[2].世界卫生组织下属的国际癌症研究所在2020年发布的全球癌症报告中表示,2018年全球女性乳腺癌的发病率为24.2%,远超其他癌症所占比例[3].另有文献[4]指出乳腺癌的发病率平均每年以0.2%~8%的速度增加.坚持早发现、早诊断、早治疗是降低乳腺癌患者死亡率、提高预后生存率的重要手段[5, 6].快速发展的医学影像技术为乳腺癌的早期检测和诊断提供了有力支撑,用于乳腺癌检测和诊断的最常用的医学成像方式是乳腺钼靶检查和磁共振成像(magnetic resonance imaging,MRI).乳腺钼靶检查更多的是致力于早期发现乳腺肿瘤.MRI中最常用于乳腺检查的是动态对比增强磁共振成像(dynamic contrast enhanced-MRI,DCE-MRI)[7],它能够直观显示解剖结构和生理组织特征,是乳腺癌诊断评估的有效工具[8].基于DCE-MRI的肿瘤定量分析通常采用肿瘤磁共振图像的形态、纹理特征[9]等进行表征,这强烈依赖于肿瘤的准确分割,但即使对于专业的放射科医师来说,这也有难度,而且手动分割十分耗时.

随着计算机技术、图像处理和模式识别技术的迅速发展,同时为了减轻临床医生的工作量,乳腺计算机辅助诊断(computer-aided detection,CAD)系统应运而生,并且在乳腺癌早期检测和诊断中起到越来越重要的作用.传统的CAD系统主要由三个模块构成[10]:(1)图像预处理与感兴趣区域(region of interest,ROI)提取;(2)特征提取与优化;(3)分类与预测.肿瘤分割是ROI提取模块的主要内容,是肿瘤诊断、治疗方案制定和预后预测等工作的重要基础[11].然而,乳腺肿瘤可以出现在乳房的任何位置,大小参差不齐、形态复杂多变,肿瘤区域与背景组织的差异较小,且占整幅图像的面积过小,使得乳腺肿瘤图像的自动分割成为一个具有挑战性的任务.此外,MRI本身的密度不均匀性进一步增加了乳腺肿瘤磁共振图像自动分割的难度[12, 13].

对于肿瘤图像的分割,目前已有很多自动的、半自动的方法,主要可以分为以下三类[14]:基于轮廓的方法[15-17]、基于模型的方法[18, 19]和基于数据的方法[20-22].基于轮廓的方法主要包括基于活动轮廓模型、主动轮廓模型、区域生长算法等方法;基于模型的方法主要包括基于模糊均值、聚类等传统机器学习的方法.这两类方法对图像质量敏感,精度相对较低且耗时较长.基于数据的方法主要是指基于一定规模数据集用于训练的深度学习的方法.随着深度学习算法的发展,越来越多基于数据的卷积神经网络的图像分割方法得以开发,这类方法虽然需要一定数量的标注数据用于网络训练,但可以得到相对较高的分割精度.已有很多方法被应用于基于DCE-MRI的乳腺肿瘤的自动分割,并且取得了不错的成效,如基于卷积神经网络(convolutional neural network,CNN)的分割方法[14, 23, 24]、基于全卷积神经网络(fully convolutional networks,FCN)[25]的方法,其中基于FCN的方法的分割性能尤为突出.Zhang等[26, 27]在2018年、2019年分别提出了基于FCN的乳腺肿瘤DCE-MR图像分割的两个模型,平均Dice相似性系数(Dice)均达到0.72;Adoui等[28]提出分别基于SegNet和U-Net的两个FCN用于乳腺DCE-MR图像的肿瘤分割,但由于数据量有限,平均交并比(intersection over union,IoU)只分别达到0.688 8和0.741 6.但目前这些基于FCN的乳腺肿瘤磁共振图像的分割效果还不够理想,主要存在以下问题:(1)乳腺肿瘤大小参差不齐,将所有图像一并投入同一分割网络进行训练,部分小目标肿瘤容易被遗漏;(2)传统的基于全卷积网络的模型中默认特征图的每个通道的权重是相等的,从而丢失了不同通道之间的权重差异所隐藏的信息.

针对上述问题,本文提出一个新的网络模型,并命名为RAU-Net,该模型在U-Net基础上引入RA模块,有效提高了模型的分割性能.此外,针对乳腺肿瘤大小参差不齐而影响分割网络鲁棒性的问题,本文设计了CBP5-Net分类模型,在图像输入分割网络之前将其分成大肿瘤和小肿瘤两个类别,有效提高了后续分割网络的特征学习效率,从而得到更加精确可靠的分割结果.

1 理论部分

本文实验流程如图 1所示.利用乳腺DCE-MRI数据训练分类模型和两个分割模型,然后利用训练好的模型对乳腺肿瘤进行分割.主要包括以下步骤:(a)预处理阶段,对乳腺DCE-MRI图像进行预处理;(b)训练阶段,利用乳腺DCE-MRI数据分别训练分类模型和分割模型;(c)测试阶段,利用训练好的分割模型对乳腺肿瘤进行分割,并分析分割结果;(d)后处理阶段,对分割结果采用基于连通域分析的后处理,得到最终的分割结果.

图1

图1   本文实验流程

Fig.1   Experimental process in this research


1.1 数据预处理

乳腺DCE-MRI图像受成像过程中各种因素的影响难免出现伪影;另外,图像中其他器官组织和噪声的存在也会对肿瘤分割产生不可忽视的影响和干扰.本文使用以下方法对原图像进行预处理:首先,通过归一化来达到统一数据的目的,即将数据通过去均值实现中心化的处理,使数据中心化符合数据分布规律,从而获得泛化能力更好的模型;其次,为了平衡肿瘤区域和背景区域的面积占比,我们从乳腺图像中截取128*128大小的包含肿瘤的图像块,并使肿瘤位于图像块的中心位置.

1.2 CBP5-Net分类网络

乳腺肿瘤形态复杂多变、大小参差不齐.为了提高后续分割网络的特征学习效率、鲁棒性,得到更加精确可靠的分割结果,本文首先设计了一个基于2D CNN的分类模型,并命名为CBP5-Net.将所有图像一并投入同一分割网络进行训练,模型难以学习到小肿瘤图像的特征.因此本文将图像数据按照肿瘤区域大小分为大肿瘤、小肿瘤两个类别,再分别送入分割模型进行下一步的分割,以此来提升本方法的鲁棒性.

CBP5-Net网络的构架如图 2所示.该网络由5个相同的block堆叠而成,每个block包含一个卷积(convolution,conv)层和一个最大池化(max-pooling)层,并引入批量正则化(batch normalization,BN)层[29]以提高网络的收敛速度、避免过拟合.网络的最后是扁平(flatten)层和两个全连接(dense)层,将卷积层产生的特征图映射到类别数目.决策层使用Sigmoid函数,其余卷积层均使用线性整流(rectified linear unit,ReLU)函数进行激活.网络各层具体细节如表 1所示.

图2

图2   CBP5-Net的网络结构图

Fig.2   The network structure diagram of CBP5-Net


表1   CBP5-Net结构

Table 1  The structure of CBP5-Net

结构输入输出结构输入输出
block1conv1282*11282*32block4conv162*128162*64
BN1282*321282*32BN162*64162*64
max-pooling1282*32642*32max-pooling162*6482*64
block2conv642*32642*64block5conv82*6482*32
BN642*64642*64BN82*3282*32
max-pooling642*64322*64max-pooling82*3242*32
block3conv322*64322*128flatten42*32512
BN322*128322*128dense51264
max-pooling322*128162*128dense642

新窗口打开| 下载CSV


1.3 基于U-Net的分割模型

U-Net[30]是一种通过上采样和下采样的结构对图像进行多尺度特征提取的CNN,并且在上采样部分依然有很多特征通道,充分利用了上下文信息.同时U-Net还借鉴并优化了FCN中跳跃连接的思想,实现特征图的跨层连接.

为了充分利用图像特征、获取更多所关注目标的细节信息,本文借鉴U-Net的上采样、下采样结构及其连接方式,设计了RAU-Net模型对DCE-MRI乳腺肿瘤进行分割.RAU-Net网络构架如图 3(a)所示.与之前研究者提出的将注意力机制用于上、下采样通道的跳跃连接处的RA-UNet网络模型[31]不同的是,本研究设计的RAU-Net引入新的RA-block(RA为Residual和Attention的首字母组合,即该模块是残差结构和注意力机制的融合)模块用于上、下采样通道中,在获取通道之间权重差异信息的同时加深了U-Net的网络深度,有效提高了模型的学习能力.RA_block模块结构如图 3(b)所示:由两个卷积层、全局平均池化(global average pooling,GAP)层、两个分别由ReLU函数和Sigmoid函数激活的全连接层构成主要路径,同时添加一个恒等映射连接[32]将前层的特征直接传递到下一模块.一方面该模块可以获取不同通道之间深层语义特征的依赖关系,对不同重要性的通道赋予不同权重[33],多维度的信息提高了模型的学习性能;另一方面该模块通过添加恒等映射连接解决了由于网络深度增加引起的梯度消失现象.同时,还加入Dropout[34]技术以避免过拟合.RAU-Net网络及RA_block模块的具体细节如表 2表 3所示,网络通过max-pooling层实现下采样,上卷积(up-convolution,up-conv)层则完成上采样操作.

图3

图3   RAU-Net结构图. (a) RAU-Net网络;(b) RA_block模块

Fig.3   The network structure diagram of RAU-Net. (a) RAU-Net; (b) RA_block


表2   RAU-Net具体细节

Table 2  The details of RAU-Net

结构*输入输出
conv1282*11282*64
conv1282*641282*64
max-pooling1282*64642*64
RA_block642* 64642*64
max-pooling642*64322*64
conv322*64322*128
conv322*128322*128
max-pooling322*128162*128
RA_block162*128162*128
max-pooling162*12882*128
conv82*25682*256
conv82*25682*256
up-conv82*256162*128
merge162*128, 162*128162*256
RA_block162*256162*256
up-conv162*256322*128
merge322*128, 322*128322*256
conv322*256322*128
conv322*128322*128
up-conv322*128642*64
merge642*64, 642*64642*128
RA_block642*128642*128
up-conv642*1281282*64
merge1282*64, 1282*641282*128
conv1282*1281282*64
conv1282*641282*2
conv1282*21282*1

*从上至下分别与图 3(a)从左至右各结构模块对应

新窗口打开| 下载CSV


表3   RA_block具体细节

Table 3  details of RA_block

结构*输入#输出#
conva2*ca2*c
conva2*ca2*c
GAPa2*cc
Dense+ReLUcc/4
Dense+Sigmoidc/4c
multiplya2*c, ca2*c
adda2*c, a2*ca2*c

*从上至下分别与图 3(b)从左至右各结构模块对应;# a代表输入矩阵的长和宽(长宽相等),c代表矩阵的通道数

新窗口打开| 下载CSV


1.4 分割结果后处理

为进一步提高模型对乳腺肿瘤分割的精确度,本文对分割网络的输出结果进行基于连通域分析的后处理:首先添加位置约束,仅保留包含图像中心点的连通域;然后进行形态学处理,对保留下来的连通域进行孔洞填充,得到乳腺肿瘤的最终分割结果.

1.5 评价指标

为了验证所提出方法的有效性,本文使用受试者工作曲线(receiver operating characteristic,ROC)的曲线下面积(area under curve,AUC)值和召回率(Recall)作为定量评价指标对分类模型进行评价;使用Dice相似性系数、敏感度(Sensitivity)、特异性(Specificity)和IoU作为定量评价指标对分割模型进行多方面的评价.它们的表达式如下:

其中,${\rm{ran}}{{\rm{k}}_i}$为代表第i条样本的序号,MN分别为正样本个数和负样本个数,TP、FP、TN、FN分别为真阳性、假阳性、真阴性、假阴性的数量.AUC值量化了ROC曲线,Recall则度量每个类别被正确分类的概率.Dice值度量了分割模型预测值与真实值的相似度,敏感度代表分割方法正确识别ROI像素的概率,特异性代表正确识别背景像素的概率,IoU则是分割结果与金标准重合度的量化指标.

2 实验部分

2.1 实验数据

本文涉及的乳腺DCE-MRI数据均来自上海交通大学医学院附属新华医院放射科(均已签订知情同意书),利用飞利浦Ingenia 3.0T超导MRI扫描仪,采用带有脂肪抑制技术的乳腺动态增强序列——T1高分辨各向同性容积激发(enhanced-T1 high resolution isotropic volume examination,e-THRIVE)序列进行扫描,注射对比剂(Gd-DTPA)后连续无间隔重复扫描4个时相,各时相扫描时间为65.4 s,重复时间(time of repetition,TR)为4 mm,回波时间(time of echo,TE)为2 ms,视野(field of view,FOV)为300 mm×300 mm~400 mm×400 mm,倾斜角(flip angle)为12˚,扫描层数为150,层厚为2 mm,数据矩阵大小为576*567.

本文选择第三时相数据进行研究,数据纳入标准为:(1)无乳腺癌病史;(2)在MRI检查前未进行过任何乳腺治疗;(3)无明显伪影;(4)单侧单发病灶.最终筛选出157例病例的共计408张切片图像组成本文实验数据集,并按照近似3:1:1的比例划分为训练集、验证集和测试集,且属于同一病例的所有图像仅分布在其中一个子数据集.另外,由于深度学习网络在训练阶段需要一定的数据量,因此本文采用旋转、放缩、镜像等操作将训练集和验证集的340张图像扩充到1 360张.

每例数据包含的金标准图像皆由多位经验丰富的影像科医师共同制定而成.

2.2 实验设计

本研究首先将所有乳腺DCE-MRI数据以0均值、1方差进行归一化,并以肿瘤区域为中心截取出128*128大小的图像块.然后,根据影像科医师勾画的金标准图像中肿瘤区域的像素数,将数据分为大肿瘤和小肿瘤两个子数据集(为平衡两个子数据集的图像数量,我们取像素数=200为阈值).然后,利用整个数据集训练和测试分类模型.最后,利用两个子数据集分别训练和测试两个分割模型.每次训练均以数据集中60%和20%的数据分别作为训练集和验证集.实验采用Keras搭建模型框架,并进行网络模型的训练.本实验硬件环境为:操作系统:64位Windows10;处理器:Intel(R)Core(TM)i5 -4590 CPU @ 3.30 GHz;内存:32.0 GB;独立显卡:NVIDA GeForce GTX 1080 Ti GPU.

对于CBP5-Net分类网络的训练,我们采用Adam进行梯度下降,学习率为1e-5,卷积层均使用He初始化方法初始化,训练集和验证集的批尺寸(batch size)分别为32和16,迭代次数(epochs)为200,并设置早停(early stopping)来降低过拟合,以二元交叉熵损失函数作为损失层函数.

训练大肿瘤RAU-Net分割模型时,将大肿瘤训练集和对应标签送入网络,同样采用Adam进行梯度下降,学习率为1e-6,卷积层使用He初始化方法初始化,训练集和验证集的批尺寸分别为32和16,迭代次数为300并设置早停.我们以加权二元交叉熵损失函数作为损失层函数,并通过中值频率平衡(median frequency balancing)[35]计算出两个类别的权重值:前景权值取0.7、背景权值取0.3.

训练小肿瘤RAU-Net分割模型时,为了让网络更高效地学习到肿瘤特征,我们在输入端增加裁剪操作,将小肿瘤图像块保持中心点不变进一步裁剪成64*64,并在输出端增加填充操作,将输出结果保持中心点不变,四周以0值填充还原成128*128.另外,经过计算我们将损失函数的前景权值取为0.8、背景权值取0.2,其余各项超参数值与大肿瘤分割模型保持一致.

最后将训练好的CBP5-Net和两个RAU-Net以图 1所示方式连接,利用测试集对整个模型进行测试.

3 结果与讨论

本文使用数据集中20%的数据作为测试集对模型进行测试.分类模型CBP5-Net的ROC曲线如图 4所示.从表 4可以看到,CBP5-Net对于肿瘤的分类效果达到了较为理想的状态,AUC值接近0.99;小肿瘤的召回率达到1.0,大肿瘤的召回率只达到0.894 7.我们通过分析实验发现:大肿瘤图像中部分肿瘤区域像素数处于阈值边缘的图像会被误预测为小肿瘤,但这对于后续分割工作的影响可以忽略.

图4

图4   CBP5-Net分类网络的ROC曲线

Fig.4   The ROC curve of classification model CBP5-Net


表4   5种方法评价指标对比

Table 4  Comparison of evaluation indicators of the 5 methods

方法Dice系数敏感度特异性IoU耗时/s
无后处理有后处理
U-Net0.90010.90570.94690.99940.84251.8931
ResU-Net0.90560.91420.92960.99880.84951.7236
U-Net++0.91750.91980.92010.99850.86012.0370
RAU-Net0.92020.92540.95660.99900.86241.7936
CBP5-Net+ RAU-Net大肿瘤0.95060.95790.95800.99830.9001
小肿瘤0.91670.91970.94660.99880.85351.8162
平均0.93360.93880.95230.99850.8768

新窗口打开| 下载CSV


为进一步验证本文方法的有效性,我们对测试集做了多个对比实验.表 4记录了测试集中68张图像采用不同方法得到的各项评价指标.RAU-Net在多个方面都优于U-Net:分割结果的Dice系数、敏感度、IoU分别增加了约2%、1%、2%,且两个模型指标之间的p值分别为0.042 2,0.041 8和0.035 0,均小于0.05,具有统计学意义,特异性指标则不相上下;RAU-Net也要优于在U-Net基础上仅添加残差结构的ResU-Net;对比U-Net++[36]也具有一定优势:Dice系数和敏感度分别提高了约0.6%、3.6%.以图 1所示方式将RAU-Net与CBP5-Net连接后,模型的性能又有了进一步提升,Dice系数、IoU分别提高了1.3%、1.4%,敏感度和特异性则与单一网络时持平.从该表中也可以看出,在使用基于连通域分析的后处理操作后,各方法的分割结果Dice系数均有所提升.此外,表格最后一列为各模型预测测试集中68张图像的耗时,可见RAU-Net使用RA模块替代U-Net的部分卷积层,利用更少的特征通道获得了更好的分割性能,同时还具有较高的预测效率;而CBP5-Net是个极轻量化的网络,RAU-Net与其连接后,整个模型依然保持较高的效率.

图 5为本文方法的分割结果示意图,可以看出后处理操作中的位置约束移除了一些明显的假阳性区域,去除肿瘤区域外被误分割的正常组织,如图像块3和4;空洞填充则可以补充一些真阳性区域,如图像块2和5.

图5

图5   使用本文所提方法(CBP5-Net+RAU-Net)得到的分割结果

Fig.5   Segmentation results of image samples using CBP5-Net+RAU-Net method proposed in this research


图 6为RAU-Net结合CBP5-Net对测试集的分割结果Dice系数分布,肿瘤形态的差异性使得分割结果也存在一定的差异,其标准差为0.046 3,但平均Dice系数达到了0.938 8.图 7为5种方法的分割结果对比,从图像块1~3可以看出,本文方法对于小目标肿瘤有着更为可靠的检出效果和更高的分割精度;图像块4~6则显示本文方法对于大目标肿瘤的分割效果也是稳定可靠的.

图6

图6   使用本文所提方法(CBP5-Net+RAU-Net)得到的分割结果的Dice系数分布

Fig.6   The Dice coefficient distribution using CBP5-Net+RAU-Net method proposed in this research


图7

图7   多种方法分割结果的比较

Fig.7   Comparison of segmentation results of various methods


4 结论与展望

本文提出的CBP5-Net结合RAU-Net的方法能得到高准确度的乳腺肿瘤分割结果,平均Dice系数、敏感度、特异性、IoU分别达到0.938 8,0.952 3,0.998 5和0.876 8,可以归纳为如下4点原因:(1)针对乳腺肿瘤大小参差不齐,文本设计了一个CBP5-Net将肿瘤分为大、小肿瘤两个类别,再分别输入到两个分割网络,让网络更高效、更具有针对性地学习肿瘤特征;(2)在传统的U-Net中引入RA模块,获取特征通道之间权重差异所隐匿的信息的同时,加深了网络深度、提高了网络的特征学习能力,让网络对于肿瘤的学习更可靠、高效;(3)针对由于网络深度的增加而引起的梯度消失现象,加入了恒等映射连接,在加深网络的同时保证梯度的正确传递;(4)基于连通域分析的后处理操作,进一步提高了分割结果的精确度.

然而,本文仍然存在一定的提升空间和不足之处:(1)本文所提的方法仅适用于单发病灶的分割,后续工作将聚焦于多发病灶病例深入研究,进一步提高CAD系统的普适性;(2)在肿瘤分类阶段,由于数据量限制,我们在保证实验效果的前提下以平衡数据集为依据将阈值取为200,而未进行实验探究最优阈值,今后的工作中,在数据量充足时我们将对此进行改进;(3)在数据方面,本文使用的是二维乳腺数据,在今后的研究中,可以尝试将同样的方法应用于三维乳腺数据,利用更多的空间信息来提高模型鲁棒性;(4)由于缺乏相应的外部数据集,本文没有对模型的泛化能力进行验证,因此建立具有一定规模的乳腺DCE-MRI数据库是未来该领域的突破方向之一.

利益冲突


参考文献

SIEGEL R L , MILLE R K D , JEMAL A .

Cancer statistics, 2018

[J]. CA: A Cancer Journal for Clinicians, 2018, 68 (1): 7- 30.

DOI:10.3322/caac.21442      [本文引用: 1]

FOROUZANFAR M H , FOREMAN K J , DELOSSANTOS A M , et al.

Breast and cervical cancer in 187 countries betweem 1980 and 2010: a systematic analysis

[J]. Lancet, 2011, 378 (9801): 1461- 1484.

DOI:10.1016/S0140-6736(11)61351-2      [本文引用: 1]

WILD C P, WEIDERPASS E, STEWART B W. World cancer report: cancer research for cancer prevention[M]//Lyon: International Agency for Research on Cancer, 2020: 23-33.

[本文引用: 1]

FANG Z Y , QIU X G .

Distribution and risk factors of breast cancer

[J]. Chinese General Practice, 2002, 5 (6): 429- 430.

DOI:10.3969/j.issn.1007-9572.2002.06.004      [本文引用: 1]

方志沂, 邱晓光.

乳腺癌的分布规律及其危险因素

[J]. 中国全科医学, 2002, 5 (6): 429- 430.

DOI:10.3969/j.issn.1007-9572.2002.06.004      [本文引用: 1]

SMITH R A , COKKINDES V , BROOKS D , et al.

Cancer screening in the United States, 2011

[J]. CA-Cancer J Clin, 2011, 61 (1): 8- 30.

DOI:10.3322/caac.20096      [本文引用: 1]

DIDKOWSKA J , WOJCIECHOWSKA U .

WHO position paper on mammography screening

[J]. Oncology in Clinical Practice, 2014,

[本文引用: 1]

HEYWANG S H , HAHN D , SCHMIDT H , et al.

MR imaging of the breast using gadolinium-DTPA

[J]. J Comput Assist Tomogr, 1986, 10 (2): 199- 204.

DOI:10.1097/00004728-198603000-00005      [本文引用: 1]

MORRIS E A .

Breast cancer imaging with MRI

[J]. Radiol Clin N Am, 2002, 40 (3): 443- 466.

DOI:10.1016/S0033-8389(01)00005-7      [本文引用: 1]

BHOOSHAN N , GIGER M L , JANSEN S A , et al.

Cancerous breast lesions on dynamic contrast-enhanced MR images: computerized characterization for image-based prognostic markers

[J]. Radiology, 2010, 254 (3): 680- 690.

DOI:10.1148/radiol.09090838      [本文引用: 1]

杨骞. 基于DCE-MRI影像的乳腺癌早期诊断研究[D]. 杭州: 杭州电子科技大学, 2014.

[本文引用: 1]

EADIE L H , TAYLOR P , GIBSON A P .

A systematic review of computer-assisted diagnosis in diagnostic cancer imaging

[J]. Eur J Radiol, 2011, 81 (1): e70- e76.

[本文引用: 1]

REIG B , HEACOCK L , GERAS K J , et al.

Machine learning in breast MRI

[J]. J Magn Reson Imaging, 2020, 52 (4): 998- 1018.

DOI:10.1002/jmri.26852      [本文引用: 1]

TAN Z , HONG R R , YE S Z .

A method to extract the region of interest in dynamic contrast-enhanced MR imaging of breast cancer

[J]. Journal of Fuzhou University (Natural Science Edition), 2016, 44 (1): 33- 39.

URL     [本文引用: 1]

檀哲, 洪容容, 叶少珍.

一种提取乳腺癌DCE-MRI感兴趣区域的分割方法

[J]. 福州大学学报(自然科学版), 2016, 44 (1): 33- 39.

URL     [本文引用: 1]

QIAO M Y , SUO S T , CHENG F , et al.

Three-dimensional breast tumor segmentation on DCE-MRI with a multilabel attention-guided joint-phase-learning network

[J]. Comput Med Imag Grap, 2021, 90, 101909.

DOI:10.1016/j.compmedimag.2021.101909      [本文引用: 2]

LIU T T , XU H Y , JIN W , et al.

Medical image segmentation based on a hybrid region-based active contour model

[J]. Comput Math Methods Med, 2014, 890725.

[本文引用: 1]

AL-FARIS A Q , NGAH U K , ISA N A M , et al.

Computer-aided segmentation system for breast MRI tumour using modified automatic seeded region growing (BMRI-MASRG)

[J]. J Digit Imaging, 2014, 27 (1): 133- 144.

DOI:10.1007/s10278-013-9640-5     

CHEN X, WILLIAMS B M, VALLABHANENI S R, et al. Learning active contour models for medical image segmentation[C]//CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019.

[本文引用: 1]

KANNAN S R , RAMATHILAGAM S , DEVI P , et al.

Improved fuzzy clustering algorithms in segmentation of DC-enhanced breast MRI

[J]. J Med Syst, 2012, 36 (1): 321- 333.

DOI:10.1007/s10916-010-9478-z      [本文引用: 1]

BAI P R , LIU Q Y , LEI L , et al.

A novel region-based level set method initialized with mean shift clustering for automated medical image segmentation

[J]. Comput Biol Med, 2013, 43 (11): 1827- 1832.

DOI:10.1016/j.compbiomed.2013.08.024      [本文引用: 1]

PEREIRA S , PINTO A , ALVES V , et al.

Brain tumor segmentation using convolutional neural networks in MRI images

[J]. IEEE T Med Imaging, 2016, 35 (5): 1240- 1251.

DOI:10.1109/TMI.2016.2538465      [本文引用: 1]

DOLZ J, AYED I B, DESROSIERS C. Dense multi-path U-Net for ischemic stroke lesion segmentation in multiple image modalities[C]//International MICCAI Brainlesion Workshop. Springer, Cham, 2018.

LEE P Q , GUIDA A , PATTERSON S , et al.

Model-free prostate cancer segmentation from dynamic contrast-enhanced MRI with recurrent convolutional networks: A feasibility study

[J]. Comput Med Imag Grap, 2019, 75, 14- 23.

DOI:10.1016/j.compmedimag.2019.04.006      [本文引用: 1]

AMIT G, HADAD O, ALPERT S, et al. Hybrid mass detection in breast MRI combining unsupervised saliency analysis and deep learning[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention, MICCAI 2017.

[本文引用: 1]

BENJELLOUN M, ADOUI M E, LARHMAM M A, et al. Automated breast tumor segmentation in DCE-MRI using deep learning[C]//International Conference on Cloud Computing Technologies and Applications, 2018.

[本文引用: 1]

LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2015: 3431-3440.

[本文引用: 1]

ZHANG J, SAHA A, ZHU Z, et al. Breast tumor segmentation in DCE-MRI using fully convolutional networks with an application in radiogenomics[C]//Computer-aided Diagnosis, 2018.

[本文引用: 1]

ZHANG J , SAHA A , ZHU Z , et al.

Hierarchical convolutional neural networks for segmentation of breast tumors in MRI with application to radiogenomics

[J]. IEEE T Med Imaging, 2019, 38 (2): 435- 447.

DOI:10.1109/TMI.2018.2865671      [本文引用: 1]

ADOUI M E , MAHMOUDI S A , LARHMAM M A , et al.

MRI breast tumor segmentation using different encoder and decoder CNN architectures

[J]. Computers, 2019, 8 (3): 52.

DOI:10.3390/computers8030052      [本文引用: 1]

LOFFE S , SZEGEDY C .

Batch normalization: accelerating deep network training by reducing internal covariate shift

[J]. arXiv preprint, 2015, 1502.03167.

[本文引用: 1]

RONNEBERGER O , FISCHER P , BROX T . U-Net: convolutional networks for biomedical image segmentation[M]. Spring Internation Publishing, 2015, 234- 241.

[本文引用: 1]

JIN Q G , MENG Z P , SUN C M , et al.

RA-UNet: a hybrid deep attention-aware network to extract liver and tumor in CT scans

[J]. Front Bioeng Biotechnol, 2020, 8, 605132.

DOI:10.3389/fbioe.2020.605132      [本文引用: 1]

HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2016: 770-778.

[本文引用: 1]

HU J , SHEN L , SUN G , et al.

Squeeze-and-excitation networks

[J]. arXiv preprint, 2017, 1709.01507.

[本文引用: 1]

SRIVASTAVA N , HINTON G , KRIZHEVSKY A , et al.

Dropout: a simple way to prevent neural networks from overfitting

[J]. J Mach Learn Res, 2014, 15 (1): 1929- 1958.

[本文引用: 1]

BADRINARAYANAN V , KENDALL A , CIPOLLA R .

SegNet: a deep convolutional encoder-decoder architecture for image segmentation

[J]. IEEE T Pattern Anal, 2017, 39 (12): 2481- 2495.

DOI:10.1109/TPAMI.2016.2644615      [本文引用: 1]

ZHOU Z W, SIDDIQUEE M M R, TAJBAKHSH N, et al. UNet++: a nested U-Net architecture for medical image segmentation[C]//Deep Learning in Medical Image Anylysis and Multimodal Learning for Clinical Decision Support, 2018: 3-11.

[本文引用: 1]

/