波谱学杂志, 2021, 38(3): 367-380 doi: 10.11938/cjmr20212883

研究论文

基于nnU-Net的乳腺DCE-MR图像中乳房和腺体自动分割

霍璐1,2, 胡晓欣3, 肖勤3, 顾雅佳3, 褚旭1,4, 姜娈,1

1. 中国科学院上海高等研究院 高端医学影像技术研究中心, 上海 201210

2. 中国科学院大学, 北京 100049

3. 复旦大学上海肿瘤医院 放射诊断科, 上海 200032

4. 上海联影医疗科技股份有限公司 数字技术产业事业群, 上海 201807

Automatic Segmentation of Breast and Fibroglandular Tissues in DCE-MR Images Based on nnU-Net

HUO Lu1,2, HU Xiao-xin3, XIAO Qin3, GU Ya-jia3, CHU Xu1,4, JIANG Luan,1

1. Center for Advanced Medical Imaging Technology, Shanghai Advanced Research Institute, Chinese Academy of Sciences, Shanghai 201210, China

2. University of Chinese Academy of Sciences, Beijing 100049, China

3. Department of Radiology, Shanghai Cancer Hospital of Fudan University, Shanghai 200032, China

4. Digital Industry Group, Shanghai United Imaging Healthcare Co., Ltd., Shanghai 201807, China

通讯作者: 姜娈, Tel: 15102136392, E-mail:jiangl@sari.ac.cn

收稿日期: 2021-01-14  

基金资助: 国家自然科学基金资助项目.  81301282
国家自然科学基金资助项目.  81471662
上海市科委科技基金资助项目.  13DZ2250300

Received: 2021-01-14  

摘要

在乳腺动态增强磁共振(DCE-MR)图像中,乳房分割和腺体分割是进行乳腺癌风险评估的关键步骤.为实现在三维脂肪抑制乳腺DCE-MR图像中乳房和腺体的自动分割,本文提出一种基于nnU-Net的自动分割模型,利用U-Net分层学习图像特征的优势,融合深层特征与浅层特征,得到乳房分割和腺体分割结果.同时,基于nnU-Net策略,所使用的模型能根据图像参数自动进行预处理和数据扩增,并动态调整网络结构和参数配置.实验结果表明,在具有多样化参数的三维脂肪抑制乳腺DCE-MR图像数据集上,该模型能准确、有效地实现乳房和腺体分割,平均Dice相似系数分别达到0.969±0.007和0.893±0.054.

关键词: 乳腺动态增强磁共振图像 ; 乳房分割 ; 腺体分割 ; 深度学习 ; nnU-Net模型

Abstract

Segmentation of whole breast and fibroglandular tissue (FGT) is an important task for quantitative analysis of breast cancer risk in dynamic contrast enhanced magnetic resonance (DCE-MR) images. In this study, an automated segmentation model based on nnU-Net is proposed to segment the whole breast and FGT in 3D fat-suppressed breast DCE-MR images, taking the advantages of hierarchical image features learning, as well as the fusion of deep features and shallow features. The model could automatically perform preprocessing, data augmentation and dynamic adaptation of network configurations with respect to different imaging parameters. Experimental results show that the method could accurately and efficiently segment the whole breast and FGT in the collected dataset of 3D fat-suppressed breast DCE-MR images with variable imaging characteristics, achieving the average Dice similarity coefficients 0.969±0.007 and 0.893±0.054, respectively, for breast and FGT segmentation.

Keywords: breast dynamic contrast enhanced magnetic resonance image ; breast segmentation ; fibroglandular tissue segmentation ; deep learning ; nnU-Net model

PDF (1369KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

霍璐, 胡晓欣, 肖勤, 顾雅佳, 褚旭, 姜娈. 基于nnU-Net的乳腺DCE-MR图像中乳房和腺体自动分割. 波谱学杂志[J], 2021, 38(3): 367-380 doi:10.11938/cjmr20212883

HUO Lu. Automatic Segmentation of Breast and Fibroglandular Tissues in DCE-MR Images Based on nnU-Net. Chinese Journal of Magnetic Resonance[J], 2021, 38(3): 367-380 doi:10.11938/cjmr20212883

引言

乳腺密度是表征乳腺癌风险的因素之一[1],可通过乳房内纤维腺体组织(fibroglandular tissue,FGT)占乳房组织的比率来评估.乳腺动态增强磁共振成像(dynamic contrast enhanced magnetic resonance imaging,DCE-MRI)是乳房组织的三维成像方法,其提供了脂肪和腺体的高对比度信息,是乳腺密度计算的理想选择[2].评估乳腺密度的关键步骤是乳房和腺体的精确分割.乳房分割包括空气-乳房边界检测和胸壁线检测,后者由于胸壁、胸肌和乳房组织周围无明显的边界而成为乳房分割的主要难点.腺体分割的主要难点是乳腺DCE-MR图像中乳房内部组织的强度分布不均匀.

近年来,针对乳房分割和腺体分割已经有传统图像处理算法报道.Wu等[3]通过边缘检测和边缘连接进行胸壁线检测.Nie等[4]使用B样条曲线拟合的方法描绘胸壁线以实现乳房分割.Gubern-Merida等[5]提出基于图谱模板的方法分割乳房区域,之后使用最大期望算法分割腺体组织.Ivanovska等[6]使用模糊C均值(fuzzy C-means,FCM)聚类实现腺体分割,并通过校正偏置场来提高分割准确性.Wu等[7]将乳房内部的先验概率图作为分割模板,结合FCM算法对腺体进行分割.

卷积神经网络作为一种深度学习方法,已被广泛应用于医学图像中器官和病理组织的分割[8-12],其中,U-Net[13]作为结构简单适于小数据集的全卷积神经网络,在医学图像分割领域[14-17]得到广泛应用.在乳房和腺体分割方面,Zhang等[18]采用两个二维U-Net级联的方式分割乳房和腺体,并在非脂肪抑制图像上测试了模型分割单侧乳房的性能;Dalmiş等[19]使用单个二维U-Net网络将乳腺MR图像中的像素分为背景、腺体和脂肪三类,并与U-Net级联模型的分割结果进行比较.Piantadosi等[20]对二维U-Net经过适当修改,实现了三维乳腺DCE-MR图像中的乳房分割.

上述提到的传统方法和深度学习方法通常设有预处理和后处理操作,且针对不同患者和不同扫描设备需对模型参数进行手动调整,因此模型泛化性能较低,例如在本文前期研究[21]中提出的方法,针对不同的数据集,需要手动进行繁琐的参数调整和预处理,不利于临床应用.另外,目前多数方法是基于非脂肪抑制乳腺MR图像实现组织分割,而临床乳腺DCE-MRI扫描过程中,通常采用脂肪抑制成像方式获取造影前、后图像序列.脂肪抑制图像噪声水平较高、对比度较低、脂肪抑制不均匀,因此在脂肪抑制MR图像中分割乳房和腺体更具挑战性和实际意义.

nnU-Net(no-new-Net)[22]是新近提出的应用于生物医学分割任务的优秀网络模型,其网络结构基础为U-Net. nnU-Net设计的核心思想是通过自适应的预处理和模型训练策略,而非手工设参,对各类数据集均能获得较好的分割结果.凭借其优势和高性能,nnU-Net已经在医学图像中得到了应用,例如用于肾脏电子计算机断层扫描(computed tomography,CT)图像的分割[23]、COVID-19患者肺部CT图像的分割[24].但是,nnU-Net目前尚未应用于脂肪抑制乳腺DCE-MR图像的分割任务中.

本文在前期研究[21]的基础上,针对模型泛化能力较低和脂肪抑制乳腺DCE-MR图像分割更具挑战性两个问题,提出了基于nnU-Net的乳腺DCE-MR图像分割框架,它可根据图像的分辨率、体素间距等特征自动进行重采样、数据扩增、网络结构及参数的动态调整,并针对脂肪抑制乳腺DCE-MR图像噪声水平较高、对比度较低对比和不均匀的脂肪抑制等特点改进了nnU-Net的自适应策略,增加了对比度增强和噪声抑制的预处理,以提高脂肪抑制图像分割的质量.本文以具有不同图像参数和乳腺密度等级的三维脂肪抑制乳腺DCE-MR图像为研究对象,训练该模型并评估了分割性能.

1 乳房和腺体的自动分割

1.1 整体框架

本文提出的乳腺DCE-MR图像分割框架如图 1所示,采用两个nnU-Net模型级联方式实现乳房和腺体的自动分割.首先,乳房分割网络以包含双侧乳房的脂肪抑制乳腺DCE-MR图像为输入,输出为分割后的乳房二值掩模图像;然后将乳房二值掩模图像与原始图像做矩阵点乘运算得到乳房分割结果;再将乳房分割结果作为腺体分割网络的输入,输出是分割后的腺体二值掩模图像;最后将腺体二值掩模图像与乳房分割结果做矩阵点乘运算得到腺体分割结果.

图1

图1   脂肪抑制乳腺DCE-MR图像中乳房和腺体(FGT)的分割框架

Fig.1   The framework for breast and FGT segmentation in fat-suppressed breast DCE-MR images


本文还基于乳房分割和腺体分割的结果,计算了双侧乳房体积和双侧腺体体积,进而计算乳腺密度.计算方法将在3.2节详细说明.

1.2 网络结构

本文分割模型使用的三维网络结构如图 2所示,由编码路径、解码路径和跳跃连接三部分组成.

图2

图2   本文方法中的网络结构

Fig.2   Network architecture in this study


编码路径是下采样过程,包含若干个块(block),每个block由两个3×3×3的卷积层和一个2×2×2的最大池化层(下采样)组成,每个卷积层后连接一个归一化(normalization)层和一个修正线性单元(rectified linear unit,ReLU);解码路径是上采样过程,包含若干个块(block),每个block与编码阶段相同层次的block组成相似,上采样通过2×2×2的反卷积实现.图 2中两条路径之间的虚线表示将上采样后的特征图与对应下采样的特征图拼接结合,避免细节信息丢失,提高分割精度.解码路径的最后一层,通过1×1×1的卷积将特征图映射到整个网络的输出层,输出图像为输入图像每个体素点(voxel)的分类结果,即背景体素或前景体素.

为适于脂肪抑制乳腺DCE-MR图像处理,本文对U-Net[13]结构进行了改进,如图 2图例中的卷积层所示,包括:1)使用填充卷积保证输出图像和输入图像尺寸相同.卷积运算中由于图像边缘处的体素点不会位于卷积核中心,卷积核也无法扩展到边缘以外,因此图像边缘处的信息会被遗漏,导致输入图像和输出图像大小不一致.填充卷积是对输入图像进行边界填充,以增加图像矩阵的大小.通常用“0”来进行填充.当卷积核与图像运算时,能延伸到边缘以外的伪体素,从而使输出图像和输入图像大小相同.2)由于GPU内存限制训练过程中批处理(batch)的大小,因此使用实例归一化(instance normalization,IN)代替使用批归一化(batch normalization).3)由于乳腺DCE-MR图像中背景体素(体素值近似为0)较多,经预处理后可能变为负值,在基于梯度的学习过程中,如果使用ReLU,神经元的梯度参数一直为0,在以后的训练过程中将不会被激活,导致训练缓慢.本文使用带泄露修正线性单元(Leaky ReLU,LReLU)代替ReLU,输入为负值时,神经元梯度参数不为0(而是一个很小的数),能够使神经元一直被激活,从而加快学习速度.

1.3 自适应分割方案

本文基于nnU-Net[21]的思路设计自适应分割策略,使分割模型对具有不同成像参数的图像自动进行预处理、网络参数调整和数据扩增,无需人工干预.(1)首先根据图像尺寸(分辨率)、体素间距等特征对图像自动进行重采样,设定重采样后的图像尺寸为数据集中所有图像尺寸的中值.对于各向异性的图像,由于各方向的体素间距不相同,因此先对图像分辨率较高的方向进行下采样,使其分辨率与其它方向一致,之后再按照各向同性图像的处理方法,同时对所有方向进行重采样.本文对原始图像和分割金标准分别采用三阶样条插值和最近邻插值实现重采样.针对脂肪抑制图像相对较高的噪声水平、较低的强度对比和不均匀的脂肪抑制等特点,本文相比nnU-Net增加了限制对比度自适应直方图均衡化(contrast limited adaptive histogram equalization,CLAHE)[25]的预处理操作,将图像分块,以块为单位进行直方图均衡化,再利用线性插值确定块间体素值,同时实现对比度增强和噪声抑制,提高分割的准确性;(2)经过预处理后,输入网络的图像尺寸统一为原始数据集中图像的中值尺寸,再根据GPU内存大小确定训练过程的批尺寸(batch size),优先满足输入尺寸尽可能大以保证分割结果的准确性,其次满足批尺寸最小为2以防止因样本过少引起的梯度噪声.为获取具有足够信息量的特征,本文设定特征图的尺寸最小为4×4×4;为限制模型大小,设定特征数目上限为320.下采样次数根据输入图像的尺寸及特征图的大小确定,本文的下采样次数为5;(3)在网络训练阶段,采用镜像变换、尺度伸缩变换、旋转平移等数据扩增操作,扩大训练样本容量,防止模型过拟合.

1.4 损失函数

本文使用Dice损失和交叉熵损失之和作为分割误差的损失函数.Dice损失可直接对分割相似度进行优化,且能够解决训练样本类别不平衡问题,但其梯度形式复杂,反向传播过程易出现梯度变化剧烈,导致模型难以收敛.交叉熵损失在分割任务中能够衡量金标准和分割结果之间的差异,交叉熵值越小,分割效果越好,但不能解决类别不平衡问题.将二者结合,可以有效提高训练过程的稳定性和分割的精准性.本文Dice损失函数和交叉熵损失函数如(1)式和(2)式所示:

${L_{{\rm{Dice}}}} = - \frac{2}{{\left| K \right|}}\sum\nolimits_{k \in K} {\frac{{\sum\nolimits_{i \in I} {u_i^kv_i^k} }}{{\sum\nolimits_{i \in I} {u_i^k} + \sum\nolimits_{i \in I} {v_i^k} }}} $

${L_{{\rm{CE}}}} = \frac{1}{I}\sum\nolimits_{i \in I} { - \left[ {{v_i} \cdot \ln ({u_i}) + (1 - {v_i}) \cdot \ln (1 - {u_i})} \right]} $

其中,K表示类别数目(本文K为2,代表前景和背景),I表示每个batch中的体素集,u表示Softmax输出概率值,v表示金标准的one-hot编码值.分割误差的总损失函数为:

${L_{{\rm{total}}}} = {L_{{\rm{Dice}}}} + {L_{{\rm{CE}}}}$

2 实验部分

2.1 数据集

本文系回顾性研究,数据集由复旦大学附属肿瘤医院的临床医学影像存储与传输系统(picture archiving and communication system,PACS)随机收集的80例三维T1加权的脂肪抑制乳腺DCE-MR图像组成,包括低、中、高风险病例,以及具有良性和恶性肿瘤的病例,所有数据使用Aurora 1.5 Tesla MR扫描仪获得.本文根据采集参数将图像分为两组:组别1包含42例,分辨率为512×512×160,层厚为1.125 mm,扫描160层,扫描时间为3 min;组别2包含38例,分辨率为512×512×108,层厚为1.481 mm,扫描108层,扫描时间为2 min.xy方向的像素尺寸为0.701 3 mm,视野(field of view,FOV)和翻转角(flip angle)分别为360 mm和90˚.每层图像的尺寸是512像素×512像素,所有数据的图像强度均被预处理为[0,255].

放射科专家根据美国放射学会乳房影像报告和数据系统(American college of radiology breast imaging reporting and data system,ACR BI-RADS)评估了每例乳房的密度(Ⅰ-脂肪: < 25%;Ⅱ-分散:25% ~ 50%;Ⅲ-非均匀致密:50% ~ 75%;Ⅳ-致密: > 75%),四个等级分别有11、41、22和6例.

同一病例的DCE-MR图像包括注射造影剂前和注射造影剂后的多个时间段的图像,注射造影剂前、后图像均采用脂肪抑制成像序列获得.本文对增强前和增强后的图像进行了配准,配准结果表明,由于乳腺磁共振扫描时线圈固定,增强前后图像的位移不明显.因此除了灰度发生变化外,增强前后组织的形态结构并未有明显变化.同时使用增强前后的图像与只使用增强前的图像,对乳房分割结果影响不大.同时,由于本文乳房分割和腺体分割的目的是计算乳腺密度,增强后的图像中腺体组织被增强,会影响图像中腺体的强度,进而导致乳腺密度计算的不准确,因此本文仅使用增强前的图像.

由于腺体的手动标注工作繁琐且耗时,因此参考近期研究[18],首先使用FCM算法生成初始的腺体标注,再由医学图像标注工程师使用ITKSNAP[26]软件手动标注了乳房和腺体区域(移除乳头部分),最后由放射科专家修正确认,保证标注的准确性.修正后的标注作为评价分割结果的金标准.

2.2 实验实施

本文将数据集按照1:1划分为训练(验证)集40例(包括21例160层的样本和19例108层的样本)和测试集40例(包括21例160层的样本和19例108层的样本),并保持具有不同成像参数和乳腺密度等级的图像均衡分布.经过重采样和CLAHE预处理后,图像对比度增强,噪声点减少,如图 3所示.本文乳房分割和腺体分割网络的图像输入尺寸分别为40×256×192和64×96×256.根据该输入大小和GPU内存(12 GB),批尺寸设置为2.为防止过拟合,本文初始学习率设为0.01,训练过程中随着迭代的继续采用指数衰减(exponential decay)逐步减小学习率,使得模型更加稳定.采用正态分布随机初始化权重策略.利用带有Nesterov Momentum(参数设为0.9)的随机梯度下降方法对损失函数进行优化.本文将训练过程的时期(Epoch定义为250个batch上的迭代优化,最大值设为1 000.网络训练过程中,采用五折交叉验证(five-fold cross validation),经过数据扩增后,训练(验证)集的样本量扩增至200例,将扩增后的200例样本随机划分五等份,每次训练取其中一份作为验证集用来确定模型的超参数.五个模型训练完成后,随机选择一个模型用于测试.

图3

图3   CLAHE处理前后图像对比

Fig.3   Comparison between the images (a) before and (b) after CLAHE processing


本文实验在配置有4个NVIDIA GeForce GTX Titan V(12GB,Volta架构)GPU、Ubuntu 16.04操作系统的虚拟环境中进行,开发工具为Python和PyTorch框架.本文在nnU-Net源代码(可从https://github.com/MIC-DKFZ/nnUNet开源获取)基础上进行了修改,以更好适应运行环境和实验数据.

2.3 评价方法

为准确客观地评价实验结果,本文使用Dice相似系数(Dice similarity coefficient,DSC)、准确度(accuracy,Acc)、灵敏度(sensitivity,Sen)、特异度(specificity,Spec)和平均对称表面距离(average symmetric surface distance,ASD)作为评价指标.上述指标计算公式如下:

$DSC = \frac{{2 \times TP}}{{TP + FP + TP + FN}}$

$Acc = \frac{{TP + TN}}{{TP + FP + TN + FN}}$

$Sen = \frac{{TP}}{{TP + FN}}$

$Spec = \frac{{TN}}{{TN + FP}}$

$ASD = \frac{1}{{\left| X \right| + \left| Y \right|}}\left( {\sum\nolimits_{x \in X} {{D_Y}(x)} + \sum\nolimits_{y \in Y} {{D_X}(y)} } \right)$

${D_X}(y) = {\min _{x \in X}}\left\| {y - x} \right\|$

${D_Y}(x) = {\min _{y \in Y}}\left\| {x - y} \right\|$

其中TPTNFPFN分别表示真阳性、真阴性、假阳性和假阴性,X表示金标准表面,Y表示分割结果表面,${D_X}(y)$表示Y中的体素到X的最短欧式距离,${D_Y}(x)$表示X中体素到Y的最短欧式距离.

此外,使用皮尔逊相关系数(Pearson correlation coefficient)评估分割结果与金标准之间的相关性;根据乳腺密度进一步评价腺体分割的性能.

同时,放射科专家对分割结果的有效性进行主观评价,使用三个分数表示分割质量:“3”表示良好,几乎不需要手动修订;“2”表示可接受,需要进行较小的手动修正;“1”表示无法在临床实践中使用.

3 结果与讨论

3.1 分割结果的指标评价

表 1给出了使用本文方法自动分割的结果相对于金标准的五种评价指标,以平均值±标准差的形式表示.使用本文方法得到的乳房分割和腺体分割的DSC分别为0.969±0.007和0.893±0.054,ASD为0.181±0.032 mm和0.240±0.021 mm.通常情况下,用于医学图像的深度学习方法容易产生较高的假阳性率(false positive rate,FPR),从而导致分割过度[27].但如表 1所示,对于乳房和腺体分割,使用本文提出的基于nnU-Net的模型分割结果具有高敏感性和特异性,表明该模型具有较高的真阳性率(true positive rate,TPR)和较低的FPR,可以有效避免过度分割.

表1   分割性能评价

Table 1  Performance metrics for segmentation

DSCAccSenSpecASD/mm
乳房分割0.969±0.0070.995±0.0060.961±0.0270.994±0.0020.181±0.032
腺体分割0.893±0.0540.997±0.0030.926±0.0170.998±0.0020.240±0.021

新窗口打开| 下载CSV


分割结果与金标准之间的相关性如图 4所示.图 4x轴表示金标准的物理实际体积,y轴表示自动分割结果的物理实际体积.实际体积计算公式为:

$ 实际体积({\rm{cm}}^{3})=\frac{体素数\times 分辨率({\rm{mm}}^{3})}{1000}$

图4

图4   使用本文提出的模型得到的自动分割体积与金标准体积的相关性. (a) 乳房;(b) 腺体

Fig.4   The correlation between the automatic segmentation volume obtained using the proposed model and the ground truth volume. (a) Breast; (b) FGT


体素数是分割得到的三维掩膜体值为1的体素数量.本文对三维MR图像的体素间距(voxel spacing)进行了各向同性处理,体素间距调整为1×1×1,因此xyz三个方向的分辨率均为0.701 3 mm.为便于在图中展示,实际体积的单位是立方厘米(cm3).图 4中,乳房自动分割和腺体自动分割的物理实际体积与金标准的相关系数r分别为0.999 5(p-value < 0.001)和0.981 6(p-value < 0.001),表明使用本文提出的模型得到的自动分割结果与金标准有很强的一致性.

总体来说,本文对脂肪抑制乳腺DCE-MR图像进行分割,能准确识别胸壁和邻近组织,乳房分割的结果较优.但是由于腺体组织一般表现为不连续、网状、散在分布,不同数据中腺体分布差异性较大,因此本文腺体分割结果差于乳房分割结果,这与已公开发表的文献[5, 6, 18, 19]中报道的结果相似.本文旨在使用自适应的分割模型,因此未使用不同的网络结构实现乳房分割和腺体分割,未来可优化设计腺体分割网络以进一步提高腺体分割质量.

3.2 乳腺密度评估

乳房分割和腺体分割的临床应用之一是计算乳腺密度.基于3.1节中得到的乳房体积(记为|Breast|)和腺体体积(记为$|FGT|$),计算乳腺密度(记为FGT %),计算如(12)式所示:

$FGT\% = \frac{{|FGT|}}{{|Breast|}} \times 100\% $

图 5(a)展示了分割结果和金标准中之间乳腺密度计算结果的相关性,其中x轴表示基于金标准的乳腺密度,y轴表示基于自动分割结果的乳腺密度,两者的相关系数r为0.997 6(p-value < 0.001),进一步表明使用本文模型得到的自动分割结果的准确性.图 5(b)展示了使用本文基于nnU-net改进方法得到的分割结果与金标准的一致性,其中横轴为两种方法所得结果的均值,纵轴为两种方法所得结果的差值,Mean表示差值的平均值,SD表示差值的标准差,(Mean ± 1.96 SD)为一致性界限(limits of agreement,LOA(图中虚线).可以看出,使用本文分割模型得到的乳腺密度与金标准的差值均值为0.7%,普遍高于手动分割结果;一致性界限为[-4.3%,5.7%],重复性系数(coefficient of repeatability,CR)值为5,绝大部分差值在一致性界限内.说明使用本文方法的分割结果与手动分割结果基本一致.

图5

图5   使用本文提出的模型得到的乳腺密度与金标准乳腺密度的(a)相关性和(b) Bland-Altman一致性

Fig.5   (a) The correlation and (b) Bland-Altman plot between the automatic segmentation breast densities obtained using the proposed model and the ground truth breast density


3.3 图像参数和乳腺密度对分割性能的影响

表 2表 3分别比较了本文方法对不同图像参数和乳腺密度等级的图像进行分割得到的DSC. 可以看出:使用本文方法对不同图像参数的乳腺DCE-MR图像均能得到较高精度的分割结果;而对于不同BI-RADS乳腺密度等级的图像,虽然对Ⅳ类乳房等级的腺体分割的DSC为0.868 ± 0.037,低于其他几类(0.925 ± 0.033),但二者差异并不显著(p-value = 0.179 > 0.05).因此,本文的分割模型能够在组成复杂的数据集上提供稳健的乳房和腺体分割结果.

表2   不同图像参数组别的乳房和腺体分割的DSC比较

Table 2  DSC values of breast segmentation and FGT segmentation for two groups with different imaging parameters

乳房分割腺体分割
组10.973±0.0110.903±0.055
组20.977±0.0260.946±0.042

新窗口打开| 下载CSV


表3   不同乳腺密度类别的乳房和腺体分割的DSC比较

Table 3  DSC values of breast segmentation and FGT segmentation for four groups with different breast density ratings

乳房分割腺体分割
Ⅰ类0.989±0.0040.906±0.048
Ⅱ类0.980±0.0080.951±0.021
Ⅲ类0.941±0.0290.917±0.031
Ⅳ类0.956±0.0100.868±0.037

新窗口打开| 下载CSV


图 6图 7分别显示了不同图像参数和乳腺密度等级的乳房DCE-MR图像分割结果示例.放射科专家对本文的分割结果进行了主观评价,所有乳腺DCE-MR图像分割结果均得分为“3”,在临床实践中几乎不需要人工修正,证明了分割结果的有效性.

图6

图6   不同图像参数组别的乳腺DCE-MR图像分割结果示例.上、下两行分别为组1的代表性样本和组2的代表性样本.从左至右,分别为原始图像、乳房分割的金标准、乳房分割结果、腺体(FGT)分割的金标准和腺体分割结果

Fig.6   Segmentation examples of two groups with different breast DCE-MR imaging parameters. The top and bottom lines are Group 1 and Group 2. From left to right: the original image, the ground truth of whole breast, the segmentation mask of whole breast, the ground truth of FGT, and the segmentation mask of FGT


图7

图7   不同乳腺密度类别的乳腺DCE-MR图像分割结果示例.从上至下,依次为乳腺密度类别Ⅰ、类别Ⅱ、类别Ⅲ和类别Ⅳ的代表性样本(Ⅰ-脂肪: < 25%;Ⅱ-分散:25% ~ 50%;Ⅲ-非均匀致密:50% ~ 75%;Ⅳ-致密: > 75%).从左至右,分别为原始图像、乳房分割的金标准、乳房分割结果、腺体(FGT)分割的金标准和腺体分割结果

Fig.7   Segmentation examples of four groups with different breast density ratings. From top down: Category I, Category Ⅱ, Category Ⅲ and Category Ⅳ (Ⅰ - fatty: < 25%; Ⅱ - scattered: 25% ~ 50%; Ⅲ - heterogeneously dense: 50% ~ 75%; Ⅳ - dense: > 75%). From left to right: the original image, the ground truth of whole breast, the segmentation mask of whole breast, the ground truth of FGT, and the segmentation mask of FGT


3.4 模型泛化性能的评估

本文在模型训练过程中使用了五折交叉验证来提高模型的泛化性能.结果(表 4)显示,在五折交叉验证中,乳房分割结果的DSC值介于0.970和0.982之间,平均值±标准差为0.976±0.027,腺体分割结果的DSC介于0.941和0.946之间,平均值±标准差为0.944±0.047.五个模型在对应的验证集上都取得了准确、稳定的DSC.

表4   交叉验证中的分割性能评价(以DSC为例)

Table 4  Performance metrics for segmentation during cross validation (taking DSC as an example)

乳房分割腺体分割
验证集Fold 10.970±0.0490.941±0.061
Fold 20.982±0.0140.945±0.046
Fold 30.971±0.0440.942±0.047
Fold 40.982±0.0160.946±0.052
Fold 50.975±0.0120.942±0.031
平均值±标准差0.976±0.0270.944±0.047
测试集0.969±0.0070.893±0.054

新窗口打开| 下载CSV


图 8图 9分别是乳房分割模型和腺体分割模型的Loss曲线,图(a)~(e)分别代表五折交叉验证过程的五个模型.可以看到,交叉验证过程中五个模型均能在各自验证集上较好拟合,乳房分割和腺体分割模型训练至收敛分别所需800 Epochs和400 Epochs,在验证集上的ln(loss)分别能够降至-0.6和-0.9以下.虽然图 8(c)8(d)的乳房分割模型在验证集上轻微过拟合,但结合表 1中模型在测试集上的结果,显示最终的模型在测试集上取得了较好的效果,因此本文分割模型准确性较高、泛化性能较好.

图8

图8   乳房分割模型在训练(验证)集上的Loss曲线.(a) ~ (e)分别为五折交叉验证中五个模型的Loss曲线

Fig.8   Loss curves of the breast segmentation model on the training (validation) set. Figures (a) ~ (e) represent the loss curves of each model of five-fold cross-validation, respectively


图9

图9   腺体分割模型在训练(验证)集上的Loss曲线.图(a) ~ (e)分别为五折交叉验证中五个模型的Loss曲线.

Fig.9   Loss curves of the FGT segmentation model on the training (validation) set. Figures (a) ~ (e) represent the loss curves of each model of five-fold cross-validation, respectively


为进一步验证模型的泛化性能,将本文分割方法应用于从复旦大学附属肿瘤医院收集的另一个独立数据集,包含40例使用Siemens 1.5 T MR扫描仪获得的病例,分辨率为512×512×104(30例)或384×384×80(10例),层厚为1.5 mm或2.2 mm,xy方向的像素尺寸为0.585 9 mm或0.937 5 mm,放射科专家主观评价组织分割也取得了良好的效果.但是,本研究中使用的所有DCE-MR图像来源于同一家医院,未来将在多中心和多设备的数据集上验证本文提出的分割框架,以获得更可靠的模型.

3.5 与其他方法分割结果的比较

如引言所述,由于针对脂肪抑制乳腺DCE-MR图像的分割模型较少,难以提供足够的细节信息来对不同模型自动分割的准确性和效率进行客观的比较.因此在表 5中,我们仅就DSC与已有文献进行比较.结果显示本文在40例脂肪抑制乳腺DCE-MR图像上取得了相对更准确的结果,尤其是对于腺体分割,DSC为0.89 ± 0.05,显著高于其他方法(p-value = 0.011 < 0.05),表明本文基于nnU-Net的自动分割方法比传统方法和需手动调节参数的深度学习方法更具有优势.

表5   使用本文提出的模型自动分割的DSC与文献值的对比

Table 5  Comparison between DSC values obtained by the proposed method and literatures

方法测试样本数乳房分割腺体分割
文献[5]270.94±0.030.80±0.13
文献[6]370.96±0.020.83±0.06
文献[18]280.86±0.050.83±0.06
文献[19]220.94±0.030.81±0.11
本文方法400.97±0.010.89±0.05

新窗口打开| 下载CSV


已公开发表的多数研究在处理不同的数据集时需要对参数进行微调.本文基于nnU-Net的分割方法通过采用具有鲁棒性的训练策略以及具有自适应性的预处理和后处理操作,避免了繁琐而复杂的参数调整,该分割框架可以直接使用,也可以集成到临床工作流程中.

3.6 运行时间

本实验训练模型时,平均每个epoch用时400 s.测试过程中,乳房分割平均需要20 s/例,FGT分割平均需要15 s/例.具体而言,在160层的MR扫描中平均分别需要38 s/例和18 s/例来分割乳房和FGT,在108层的MR扫描中分别为25 s/例和12 s/例.

4 结论

本文研究了基于nnU-Net的乳房分割和腺体分割模型,在具有不同参数的三维脂肪抑制乳腺DCE-MR图像上对模型进行了训练(验证)和测试,结果表明该模型可以稳定地实现乳房和腺体的准确分割,与传统方法相比,无需手动调节网络参数,在处理脂肪抑制乳腺DCE-MR图像方面具有广阔的潜力.下一步研究考虑进行模型压缩以缩短分割时间,并在多中心数据集上应用该分割框架,进一步提高模型的泛化性能.

利益冲突

霍璐和姜娈得到了上海联影医疗科技股份有限公司的部分支持.

参考文献

BOYD N F , GUO H , MARTIN L J , et al.

Mammographic density and the risk and detection of breast cancer

[J]. New Eng J Med, 2007, 356 (1): 227- 236.

URL     [本文引用: 1]

KLIFA C , CARBALLIDO-GAMIO J , WILMES L , et al.

Magnetic resonance imaging for secondary assessment of breast density in a high-risk cohort

[J]. Magn Reson Imaging, 2010, 28 (1): 8- 15.

DOI:10.1016/j.mri.2009.05.040      [本文引用: 1]

WU S D , WEINSTEIN S P , CONANT E F , et al.

Automated chest wall line detection for whole-breast segmentation in sagittal breast MR images

[J]. Med Phys, 2013, 40 (4): 042301.

DOI:10.1118/1.4793255      [本文引用: 1]

NIE K , CHEN J H , CHAN S , et al.

Development of a quantitative method for analysis of breast density based on three-dimensional automated segmentation of breast in 3-D MR images

[J]. Med Phys, 2008, 35 (12): 5253- 5262.

DOI:10.1118/1.3002306      [本文引用: 1]

GUBERN-MÉRIDA A , KALLENBERG M , MANN R M , et al.

Breast segmentation and density estimation in breast MRI: A fully automatic framework

[J]. IEEE J Biomed Health, 2015, 19 (1): 349- 357.

DOI:10.1109/JBHI.2014.2311163      [本文引用: 3]

IVANOVSKA T , LAQUA R , WANG L , et al.

A level set based framework for quantitative evaluation of breast tissue density from MRI data

[J]. PLoS One, 2014, 9 (11): e112709.

DOI:10.1371/journal.pone.0112709      [本文引用: 3]

WU S D , WEINSTEIN S P , CONANT E F , et al.

Automated fibroglandular tissue segmentation and volumetric density estimation in breast MRI using an atlas-aided fuzzy C-means method

[J]. Med Phys, 2013, 40 (12): 122302.

DOI:10.1118/1.4829496      [本文引用: 1]

KOREZ R, LIKAR B, PERNUŠ F, et al. Model-based segmentation of vertebral bodies from MR images with 3D CNNs[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016. Cham, Switzerland: Springer International Publishing, 2016: 433-441.

[本文引用: 1]

MOESKOPS P, WOLTERINK J M, VAN DER VELDEN B H M, et al. Deep learning for multi-task medical image segmentation in multiple modalities[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2016. Cham, Switzerland: Springer International Publishing, 2016: 478-486.

RODRIGUEZ-RUIZ A, TEUWEN J, CHUNG K, et al. Pectoral muscle segmentation in breast tomosynthesis with deep learning[C]//Medical Imaging 2018: Computer-Aided Diagnosis. Bellingham, WA: SPIE, 2018: 564-570.

ZHANG J , GAO Y Z , PARK S H , et al.

Structured learning for 3-D perivascular space segmentation using vascular features

[J]. IEEE T Biomed Eng, 2017, 64 (12): 2803- 2812.

DOI:10.1109/TBME.2016.2638918     

CHRIST P, ETTLINGER F, GRÜN F, et al. Automatic liver and tumor segmentation of CT and MRI volumes using cascaded fully convolutional neural networks[EB/OL]. (2017-2-23)[2020-12-19]. https://arxiv.org/pdf/1505.04597v1.

[本文引用: 1]

RONNEBERGER O, FISCHER P, BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015. Cham, Switzerland: Springer International Publishing, 2015: 234-241.

[本文引用: 2]

ZHAO S Y , WANG Y J .

Classification of Alzheimer's disease patients based on magnetic resonance images and an improved UNet++ model

[J]. Chinese J Magn Reson, 2020, 37 (3): 321- 331.

URL     [本文引用: 1]

赵尚义, 王远军.

基于磁共振图像和改进的UNet++模型区分阿尔茨海默症患者和健康人群

[J]. 波谱学杂志, 2020, 37 (3): 321- 331.

URL     [本文引用: 1]

KALLENBERG M , PETERSEN K , NIELSEN M , et al.

Unsupervised deep learning applied to breast density segmentation and mammographic risk scoring

[J]. IEEE Trans Med Imaging, 2016, 35 (5): 1322- 1331.

DOI:10.1109/TMI.2016.2532122     

LIU P , ZHONG Y M , WANG L J .

Automatic segmentation of right ventricle in cine cardiac magnetic resonance image based on a dense and multi-scale u-net method

[J]. Chinese J Magn Reson, 2020, 37 (4): 456- 468.

URL    

刘鹏, 钟玉敏, 王丽嘉.

基于密集多尺度U-net网络的电影心脏磁共振图像右心室自动分割

[J]. 波谱学杂志, 2020, 37 (4): 456- 468.

URL    

XIAO L , LOU Y K , ZHOU H Y .

A U-Net network-based rapid construction of knee models for specific absorption rate estimation

[J]. Chinese J Magn Reson, 2020, 37 (2): 144- 151.

URL     [本文引用: 1]

肖亮, 娄煜堃, 周航宇.

用于SAR估计的基于U-Net网络的快速膝关节模型重建

[J]. 波谱学杂志, 2020, 37 (2): 144- 151.

URL     [本文引用: 1]

ZHANG Y , CHEN J H , CHANG K T , et al.

Automatic breast and fibroglandular tissue segmentation in breast MRI using deep learning by a fully-convolutional residual neural network U-Net

[J]. Acad Radiol, 2019, 26 (11): 1526- 1535.

DOI:10.1016/j.acra.2019.01.012      [本文引用: 4]

DALMIŞ M U , LITJENS G , HOLLAND K , et al.

Using deep learning to segment breast and fibroglandular tissue in MRI volumes

[J]. Med Phys, 2017, 44 (12): 533- 546.

URL     [本文引用: 3]

PIANTADOSI G, SANSONE M, SANSONE C. Breast segmentation in MRI via U-Net deep convolutional neural networks[C]//Proceedings of 2018 International Conference on Pattern Recognition (ICPR). Piscataway, NJ: IEEE press, 2018: 3917-3922.

[本文引用: 1]

JIANG L , HU X X , XIAO Q , et al.

Fully automated segmentation of whole breast using dynamic programming in dynamic contrast enhanced MR images

[J]. Med Phys, 2017, 44 (6): 2400- 2414.

DOI:10.1002/mp.12254      [本文引用: 3]

ISENSEE F, PETERSEN J, KLEIN A, et al. nnU-Net: Self-adapting framework for U-Net-based medical image segmentation[EB/OL]. (2018-9-27)[2020-12-19]. https://arxiv.org/abs/1809.10486v1

[本文引用: 1]

HELLER N , ISENSEE F , MAIER-HEIN K H , et al.

The state of the art in kidney and kidney tumor segmentation in contrast-enhanced CT imaging: Results of the KiTS19 challenge

[J]. Med Image Anal, 2021, 67, 101821.

DOI:10.1016/j.media.2020.101821      [本文引用: 1]

MA J, WANG Y X, AN X L, et al. Toward data-efficient learning: A benchmark for COVID-19 CT lung and infection segmentation[J]. Med Phys, 2020. https://doi.org/10.1002/mp.14676.

[本文引用: 1]

PAUL S H . Graphics gems Ⅳ[M]. San Francisco: Margan Kaufmann, 1994, 474- 485.

[本文引用: 1]

YUSHKEVICH P A , PIVEN J , HAZLETT H C , et al.

User-guided 3D active contour segmentation of anatomical structures: Significantly improved efficiency and reliability

[J]. NeuroImage, 2006, 31 (3): 1116- 1128.

DOI:10.1016/j.neuroimage.2006.01.015      [本文引用: 1]

LÓPEZ-LINARES ROMÁN K , GARCÍA OCAÑA M I , LETE URZELAI N , et al.

Medical image segmentation using deep learning

[J]. Intelligent Systems Reference Library, 2020, 171, 17- 31.

[本文引用: 1]

/