0
文章快速检索   高级检索
基于Vgg16-Unet模型的MRI图像下前列腺分区智能分割研究
呼延若曦1,2, 吴哲3, 许杉杉4, 崔慧林4, 曹锡梅4, 马晋锋4,5, 吴毅3, 顾玮1     
1. 400044 重庆,重庆大学:医学院;
2. 400044 重庆,重庆大学:生物工程学院;
3. 400038 重庆,陆军军医大学(第三军医大学)生物医学工程与影像医学系数字医学教研室;
4. 030001 太原,山西医科大学组织胚胎学教研室;
5. 030013 太原,山西省肿瘤医院普外科
[摘要] 目的 基于前列腺核磁共振图像(MRI),构建深度学习智能分割模型,展开MRI图像下前列腺分区的智能分割研究。方法 收集山西省肿瘤医院2018年1月至2020年10月33例经MRI扫描的前列腺癌患者T2WI本地数据,包括T1期6例,T2期15例,T3期9例,T4期3例。选取荷兰奈梅亨拉德堡德大学医学中心提供的前列腺MRI公开数据集中前列腺癌患者的T2WI序列数据,共379例数据,所有数据按照7 ∶1 ∶2的比例随机划分为训练集265例、验证集38例和测试集76例。在Unet模型基础上以Vgg16模型为编码器,使用多层卷积层的同时利用迁移学习策略,构建Vgg16-Unet模型,以医师手工勾画和标注的前列腺分区(前纤维基质带、中央带、外周带、移形带)为金标准,在测试集上,采用Dice相似系数(Dice similarity coefficient,DSC)、95%豪斯多夫距离(95% Hausdorff surface Distance,HD95)评估模型对前列腺分区的分割精度。结果 模型在测试集上对前纤维基质带、中央带、外周带、移形带实现了较为准确的分割,其平均DSC分别为56.95%、47.28%、80.78%、90.63%,平均HD95分别为20.84、20.02、15.39、11.20 mm。模型智能分割与手工标注测量的体积一致性较好,其差值均位于95%一致性区间内。结论 构建的Vgg16-Unet模型分割精度优于Unet、Unet++、ResUnet++ 3个Unet经典变种网络,能够显著提高前列腺癌MRI图像分割效率,减轻医师工作量。
[关键词] 深度学习    前列腺肿瘤    智能分割    核磁共振成像    
Intelligent segmentation of prostate zones in MR images based on Vgg16-Unet
HUYAN Ruoxi1,2, WU Zhe3, XU Shanshan4, CUI Huilin4, CAO Ximei4, MA Jinfeng4,5, WU Yi3, GU Wei1     
1. School of Medicine, Chongqing University, Chongqing, 400044;
2. College of Bioengineering, Chongqing University, Chongqing, 400044;
3. Department of Digital Medicine, Faculty of Biomedical Engineering and Imaging Medicine, Army Medical University (Third Military Medical University), Chongqing, 400038;
4. Department of Histology and Embryology, School of Basic Medicine, Shanxi Medical University, Taiyuan, Shanxi Province, 030001;
5. Department of General Surgery, Shanxi Cancer Hospital, Taiyuan, Shanxi Province, 030013, China
[Abstract] Objective To create an intelligent segmentation model of deep learning based on the magnetic resonance (MR) images of the prostate zones. Methods The T2WI sequence data of 33 patients with prostate cancer, including 6 at T1 stage, 15 at T2 stage, 9 at T3 stage, and 3 at T4 stage, receiving MRI scanning in Shanxi Provincial Cancer Hospital from January 2018 to October 2020 were collected. While, the T2WI sequence data of 346 patients with prostate cancer from the Prostate MRI Public Dataset provided by Radboud University Nijmegen Medical Centre, Netherlands were also collected. Then these totally 379 cases were randomly divided into training sets, validation sets and test sets at a ratio of 7 ∶1 ∶2 (265, 38 and 76 cases, respectively). Based on Unet model, Vgg16 was used as the encoder, and multiple layers of convolution were used with the transfer learning strategy at the same time to build a Vgg16-Unet model. Then with a gold standard of the prostate zones (anterior fibrous matrix zone, central zone, peripheral zone, and transition zone) manually segmented by doctors, Dice similarity coefficient (DSC) and 95% Hausdorff surface distance (HD95) were employed to evaluate the segmentation accuracy of the prostate zones on the test set. Results The model achieved relatively higher accuracy of segmentation for anterior fibrous matrix zone, central zone, peripheral zone and transition zone on the test set. The average DSC was 56.95%, 47.28%, 80.78%, and 90.63%, and the average HD95 value was 20.84, 20.02, 15.39 and 11.20 mm, respectively. The volume predicted by the model was consistent with the volume measured by manual segmentation, and their differences were basically within the 95% consistency interval. Conclusion The segmentation accuracy of our Vgg16-Unet model is better than that of 3 classical variants, Unet, Unet++ and ResUnet++. The model can significantly improve the segmentation efficiency of prostate cancer MRI images and reduce the workload of clinicians.
[Key words] deep learning    prostate tumor    intelligent segmentation    magnetic resonance image    

前列腺是男性泌尿生殖系统重要的器官,前列腺病变(如增生、癌变等)为临床常见的疾病且严重影响男性健康,前列腺癌发病率居全球男性恶性肿瘤第2位,仅次于肺癌。在我国前列腺癌发病率位居第六位,并呈现逐年上升趋势[1-2]。磁共振(MRI)检查对软组织分辨能力强,是目前前列腺疾病的主要诊断方法。前列腺的解剖结构较为复杂,包括前列腺纤维基质带(anterior fibrous muscular stroma,AFMS)、中央带(central zone,CZ)、外周带(peripheral zone,PZ)、移行带(transition zone,TZ)4个分带。病变好发于这4个区域,其中癌症好发于PZ,增生好发于TZ。若能准确分割这些区域,则能快速量化这些区域的体积,能够快速辅助检测诊断前列腺增生和前列腺癌等疾病,可大大提高临床医师的诊断工作效率和准确率。但是,传统的手动分割方法耗时耗力,效率低下,经验不足的年轻医师往往存在误诊和漏诊。近年来,国内外基于深度学习用于医学图像分割的方法被广泛报道,如胡学刚等[3]提出了一种基于全卷积DenseNet的分割方法,在公开数据集上Dice相似性系数达到93.25%。KURATA等[4]基于卷积神经网络对122例患者的子宫进行了分割,精度(Dice)达到了82%;LEE等[5]报道了MRI智能分割脑部区域的方法,精度(DSC)达到93%。AFZALI等[6]利用深度学习技术实现了肺部病灶区域的智能精确分割,其左右肺部平均DSC值分别达到97.1%和96.1%。然而,目前人工智能辅助前列腺的分割研究较少。

基于此,本研究利用人工智能深度学习技术提出了以Unet为框架,Vgg16网络作为主干的Vgg16-Unet模型,对前列腺4个分带进行智能分割研究,并可以快速计算四分带体积等参数,有助于辅助检测诊断前列腺疾病。

1 资料与方法 1.1 临床资料

收集山西省肿瘤医院放射科2018年1月至2020年10月的50例前列腺癌患者MRI图像。纳入标准:①因前列腺特异性抗原(PSA)增加或直肠指检怀疑PCA而进行MRI扫描;②规范的T2WI序列。排除标准:①内分泌治疗史;②图像质量较差,结构不清晰;③接受前列腺癌根治术或经尿道电切术[7]。最终33例前列腺癌患者MRI影像被纳入研究。此外,还选取了荷兰奈梅亨拉德堡德大学医学中心前列腺MRI公开数据集的346例患者T2WI图像[8]。最终379例前列腺患者被纳入研究。根据临床研究分类法则的随机分配原则[9],保证训练集所有样本不出现在验证集与测试集的前提下,所有患者按7 ∶1 ∶2比例随机划分为训练集(n=265)、验证集(n=38)、测试集(n=76),此研究获山西省肿瘤医院伦理委员会批准(批件号:2021051)。

1.2 数据集构建

山西省肿瘤医院患者(n=33)采集轴位T2WI,层厚4.5 mm,公开数据集患者(n=346)T2WI,层厚3.6 mm。设备型号为:GE Signa TwinSpeed (Excite) 1.5 T磁共振,共得到7 766张Dicom图像,其中5 444张训练图像;744张验证图像;1 578张测试图像,其中训练集手工分割图像由2名放射医师勾画核定,其中1名采用Amria软件人工手动逐层标注前列腺前纤维基质带、中央带、外周带、移形带,另外1名对勾勒的手工分割图像进行修改核对。

1.3 方法

1.3.1 实验设备

本实验采用的硬件工具为:CPU:AMD A8-5550M APU with Radeon(tm) HD Graphics;GPU:NVIDIA TITAN X(Pascal) 12G。软件工具为:Windows系统;ITK-Snap;MicroDicomViewer;python3.7.1;pytorch+cuda:1.8.0+cu111。

1.3.2 数据预处理

前列腺MRI影像中前列腺所占区域面积较小且与其相邻结构相比,其对比度较低,这对于精准分割前列腺区域带来了困难。本研究采用的预处理过程如图 1所示,首先对前列腺MRI图像进行格式转换,通过使用Python(3.7.1)中第三方库pydicom,simpleITK将医学Dicom格式[10]数据转化为JPG图像格式;接着将Dicom中像素归一化到0~1之间,调整Dicom图像的窗宽窗位,将其图像的灰度值转为CT值(单位Hu),本研究中采用的窗位,窗宽分别为336、1 077,最后对开窗过后的图像利用中值滤波器对其进行去噪处理。

图 1 前列腺癌患者MRI及手工分割图像数据预处理过程

将前列腺AFMS、CZ、PZ、TZ所对应的手工分割合并至一张图像上,经过预处理后的Dicom图像分别与手工分割图像互相对应,随机抽取1张前列腺MRI影像以及其手工分割图像,见图 2

A:经过预处理后的前列腺MRI图像;B:相应手工分割图像 图 2 前列腺癌患者MRI及手工分割图像

1.3.3 实验过程

本研究提出了Vgg16-Unet模型,在编码器部分使用了Vgg16网络[11]作为主干,采用3个3×3的卷积核,经过了ReLU(非线性激活函数)层以及BN(正则化层)层,既保证了感受野的相同,增加了模型的非线性表达能力,又可以防止训练过程中出现梯度爆炸以及过拟合现象。训练过程中使用Vgg16网络在ImageNet[12]数据集上将训练好的预训练权重进行迁移学习[13],解码器部分还原Unet网络[14]右半部分(图 3)。

图 3 Vgg16-Unet模型框架图

1.3.3.1 训练过程

训练过程分为2个阶段:冻结阶段;解冻阶段。在冻结阶段,模型的主干被冻结,特征提取网络不变化,此时占用的显存较小仅对网络进行微调。在解冻阶段,模型的主干不被冻结,特征提取网络会发生改变,占用的显存较大,网络所有的参数都会发生改变。通过设计两阶段的训练模式,不仅加速了网络的收敛,同时也提升了模型收敛的效果,模型的具体参数见表 1

表 1 Vgg16-Unet模型结构参数
层(类别) 输出 填充 步长 每层参数
卷积(1) [64, 512, 512] 1 36 928
ReLU BN(1) [64, 512, 512]
最大池化(1) [64, 256, 256] 2
卷积(2) [128, 256, 256] 1 147 584
ReLU BN(2) [128, 256, 256]
最大池化(2) [128, 128, 128] 2
卷积(3) [256, 128, 128] 1 590 080
ReLU BN(3) [256, 128, 128]
最大池化(3) [256, 64, 64] 2
卷积(4) [512, 64, 64] 1 2 359 808
ReLU BN(4) [512, 64, 64]
最大池化(4) [512, 32, 32] 2
卷积(5) [512, 32, 32] 1 2 359 808
ReLU BN(5) [512, 32, 32]
上采样(1) [512, 64, 64]
拼接(1) [1 024,64,64]
卷积(6) [512, 64, 64] 1 2 359 808
ReLU BN(6) [512, 64, 64]
上采样(2) [512, 128, 128]
拼接(2) [768, 128, 128]
卷积(7) [256, 128, 128] 1 590 080
ReLU BN(7) [256, 128, 128]
上采样(3) [256, 256, 256]
拼接(3) [384, 256, 256]
卷积(8) [128, 256, 256] 1 147 584
ReLU BN(8) [128, 256, 256]
上采样(4) [128, 512, 512]
拼接(4) [192, 512, 512]
卷积(9) [64, 512, 512] 1 36 928
ReLU BN(9) [64, 512, 512]
卷积(10) [5, 512, 512] 1 325

1.3.3.2 Vgg16-Unet模型架构

Vgg16-Unet网络由编码器和解码器两部分组成,编码器模块采用Vgg16网络部分,由5层卷积层与4层最大池化层组成(图 4)。输入图像经过编码器编码后会得到4个由浅层到深层的不同尺度的特征信息,然后通过Unet中的“跳跃”连接与解码器模块中相同尺度的特征图像在通道方向上进行“融合”,弥补了图像在下采样过程中丢失的边缘信息。解码器部分主要由上采样模块和卷积层构成,其中上采样模块采用的是双线性插值[15](bilinear interpolation)方法,且上采样的次数与编码器中池化层数目相对同。输入图像经过编码器部分的特征提取过后,传入解码器中再通过多次上采样的过程,最终得到与输入图像等同大小的分割预测图像。

图 4 Vgg16-Unet主干网络框架

1.3.3.3 训练细节和参数设置

模型训练部分:初始学习率为0.01,学习率下降策略采用余弦退火方式(cosine annealing);优化器方面,选取带有动量的SGD优化器,动量(momentum)为0.9,权重衰减(weight decay)为1×10-4,训练过程中冻结阶段和解冻阶段的Batchsize分别为10、8,训练轮次为100轮,前50轮为冻结阶段,后50轮为解冻阶段,选择损失最小的模型保存其权重。

1.3.4 损失函数

本实验采用以1 ∶3加权比例混合Dice损失函数、Cross Entropy交叉熵损失函数作为损失函数。

Cross Entropy交叉熵损失函数经常用于分类问题中,而且由于交叉熵涉及到计算每个类别的概率,本实验归根到底可以理解为4分类问题,因此搭配Softmax函数进行损失计算。Cross Entropy交叉熵损失函数公式如下。

其中CEloss:损失值;n:Batchsize;x:预测向量维度;y:经过独热编码后的真实值对应x维度上的标签,1或0;a:独热编码格式输出的预测标签,1或0(经过softmax函数)。

Dice系数是一种相似度度量函数,通常用来评判两个样本之间的相似度,值域为[0, 1],Dice系数越接近于1,表明分割精度越高,公式如下。

其中,|XY|表示两个集合的交集,|X+Y|表示两个集合的并集。对于本实验任务而言,X,Y分别表示手工分割与网络预测图像。Dice损失函数的计算公式如下。

为了防止出现零除以及过拟合现象,在Diceloss的基础上添加了smooth指标,本实验中smooth=1×10-5,因此Dice损失函数计算公式如下。

1.3.5 评价指标

本研究主要以医学图像分割常用的评价指标[16]对不同网络的预测结果与手工分割之间进行对比评价,公式如下。

① Dice系数:

② Sensitivity灵敏度:

③ PPV阳性预测率:

④ HD豪斯多夫距离:

其中TP、TN、FP、FN分别指真实正样本、真实负样本、假正样本、假负样本的数量。为了消除非常小的离群值子集的影响,本实验中使用的是HD95,即公式(7)的结果HD的值乘以95%。

2 结果 2.1 各模型在测试集上的分割结果

本研究构建的Vgg16-Unet模型,在测试集上进行推理,对比Unet、Unet++、ResUnet++ 3种经典Unet与其衍生模型,结果如表 23所示,模型对AFMS、CZ、PZ、TZ 4个区域实现了较为准确的分割,其平均DSC值、95%HD距离分别为:56.95%、47.28%、82.75%、89.28%和20.84、20.02、15.39、11.20 mm。图 5所示为测试集上Vgg16-Unet模型预测和医师手工标注的前列腺4个分带的体积的Bland-Altman一致性分析,二者一致性较好,大部分差值均位于95%CI内。

表 2 不同评价指标下各模型在测试集上分割结果对比(M)
评价指标 模型 AFMS CZ PZ TZ
相似性系数DSC(%)
  Vgg16-Unet 56.95 47.28 82.75 90.63
  Unet++ 56.75 43.07 80.62 89.09
  Unet 56.92 43.24 80.58 88.85
  ResUnet++ 53.28 43.38 79.94 87.87
灵敏度Sensitivity(%)
  Vgg16-Unet 62.58 43.65 80.98 87.90
  Unet++ 57.42 41.40 79.40 90.36
  Unet 62.82 42.94 81.70 87.19
  ResUnet++ 69.35 51.17 80.35 85.72
阳性预测率PPV(%)
  Vgg16-Unet 52.25 43.28 83.35 90.17
  Unet++ 56.09 44.88 80.26 87.85
  Unet 52.03 43.54 79.49 90.58
  ResUnet++ 43.26 37.65 79.55 90.12
95%豪斯多夫距离HD95/mm
  Vgg16-Unet 20.84 20.02 15.39 11.20
  Unet++ 20.83 21.13 15.76 12.78
  Unet 20.78 21.20 17.10 12.64
  ResUnet++ 19.99 20.38 15.79 13.26

表 3 各模型及手工计算体积在测试集上定量化结果对比(cm3x±s)
模型 AFMS P CZ P PZ P TZ P
Vgg16-Unet 2.50±1.26 0.001 1.92±1.18 0.764 15.31±7.28 0.001 37.01±30.75 0.001
Unet++ 2.93±1.40 0.029 1.76±1.32 0.053 15.12±7.13 0.001 34.64±29.83 0.001
Unet 2.97±1.30 0.001 1.92±1.13 0.956 15.46±7.83 0.001 34.47±29.90 0.001
ResUnet++ 3.94±1.66 0.001 2.60±1.37 0.001 15.24±6.87 0.001 33.99±29.41 0.001
手工计算体积 2.68±1.72 0.001 2.11±1.32 0.001 15.13±8.75 0.001 36.69±31.22 0.001

A:模型预测与手工标注AFMS体积均值差值;B:模型预测与手工标注CZ体积均值差值;C:模型预测与手工标注PZ体积均值差值;D:模型预测与手工标注TZ体积均值差值 图 5 Vgg16-Unet模型预测与手工标注的前列腺分带体积差值比较

2.2 各模型训练过程收敛情况

经过比对不同模型在相同超参数下训练过程的收敛情况,Vgg16-Unet模型在整个训练过程中保持了相对稳定的状态,收敛速度远远快于Unet、Unet++、Res-Unet++3个模型,其在约20个epoch处模型就已经完成拟合,大大缩短了训练周期,从而提高了前列腺分区的分割效率(图 6)。

A:Vgg16-Unet模型训练过程收敛情况;B:Unet模型训练过程收敛情况;C:Unet++模型训练过程收敛情况;D:Res-Unet++模型训练过程收敛情况 图 6 各模型训练过程中收敛速率和稳定性对比

2.3 智能分割与手工分割对比

为了更加直观地比较Vgg16-Unet模型与其他模型分割效果,在测试集中以前列腺基底部、中央部、尖部为3个平面,选取3张MRI影像的分割结果进行可视化对比展示(图 7)。在前列腺尖部的分割中Vgg16-Unet模型,能更精准地捕获小结构的边缘信息。总体看来,模型对整个测试集的推理结果与手工分割图像保持了较高的一致性。

图 7 各模型前列腺分带分割可视化结果比较

3 讨论 3.1 智能分割结果分析

近年来,人工智能深度学习在医学图像处理领域应用广泛,主要体现人工智能辅助医学图像分割、疾病智能诊断、疾病预后评估等方面[17]。本研究基于深度学习方法,构建Vgg16-Unet模型,对前列腺MRI图像进行了更为精细的分割研究,深化其临床应用。本研究结果表明:前列腺4个分带的智能分割结果能够快速计算前列腺分区体积,基本满足了临床应用,有助于临床医师快速检测诊断前列腺癌和前列腺增生等疾病,能够节省医疗资源,减轻医师工作量,提高诊断效率。

从网络的分割效果来看,Unet模型虽然分割精度较稳定,但其分割结果的假阳性较高,细小特征的提取效果不好;ResUet++和Unet++模型加深了网络的层数,同时分别采用了残差结构、密集连接,填补了Unet“跳跃”连接中空白的部分,但是随着网络层数的加深,不仅增加了计算参数量,而且在训练过程中出现了过拟合现象,反而导致其分割结果较差。相比于经典的Unet模型,Vgg16-Unet模型引入了Vgg16的特征提取模块,多次采用3×3的卷积核,在保证相同感受野的同时,提升了模型在下采样过程中的多尺度特征提取能力,还充分利用了Imagenet数据集上训练好的预训练权重进行迁移学习,大大加快了模型的收敛速度,显著提升了模型的分割效率。模型在PZ、TZ区域分割的效果较好,其DSC值分别达到了82.75%、90.63%,95%Hausdorff距离分别控制在15.39、11.20 mm,而对AFMS、CZ的分割效果则不理想,其DSC值分别为56.95%、47.28%,95%Hausdorff距离达到了20.84、20.02 mm,估计为数据层厚较大,分区体积较小所导致,正如REN等[18-19]报道分割目标体积小,分割的难度越大,精度越低。本实验结果与刘想等[20]的智能分割结果基本一致。

3.2 创新与不足之处

目前关于前列腺智能分割大部分研究都是针对易分割区域展开的,如KHAN等 [21]的研究中将前列腺CZ、TZ部分合并为CG(中央腺体),对前列腺两个大结构区域分割,PZ和CG的最高DSC值分别达到了78.9%、92.8%;ZAVALA-ROMERO等[22]在组合模型和单模型之间进行消融实验,最终在前列腺PZ上分割的DSC值最高达到了81.1%;BARDIS等[23]在前列腺PZ、TZ区域上实现了智能分割,其精度(DSC值)达到77.4%、91.0%;同样,CUOCOLO等[24]在PZ和TZ上的分割精度(DSC值)分别为71.8%和87.5%,而LI等[25]只对前列腺整个区域进行分割研究,在测试集上分割准确率(DSC值)达到了91.03%。然而,这些智能分割研究主要针对整个前列腺、外周带或移形带,但并未对中央带和膀胱下基质进行分割。本研究对前列腺进行了更细致的分割,包括AFMS、CZ、PZ、TZ 4个区域,更能够获取前列腺包括各个分区详细的解剖和病理信息,精细化的分割对前列腺疾病,包括前列腺癌和良性前列腺增生等诊断更有意义。

然而,本研究仍存在不足之处:①基于患者的DICOM图像较少,层厚较厚,以及GPU算力受限,实验未使用3D深度学习模型,忽略了图像的空间信息,分割精度仍有待提高;②单中心数据量较少,样本量仍需扩大。今后我们将从2D/3D维度,选取大样本、多中心数据,加强前列腺分区的智能分割研究。

本研究构建的Vgg16-Unet模型实现了对前列腺4个分区的精准分割,可以快速计算分区体积,有助于临床医师快速检测诊断前列腺癌、前列腺增生等疾病,提高诊断效率,节省医疗资源,减轻医师工作量。

参考文献
[1]
XIA C F, DONG X S, LI H, et al. Cancer statistics in China and United States, 2022: profiles, trends, and determinants[J]. Chin Med J (Engl), 2022, 135(5): 584-590.
[2]
SIEGELR L, MILLER K D, JEMAL A. Cancer statistics, 2015[J]. CA A Cancer J Clin, 2015, 65(1): 5-29.
[3]
胡学刚, 杨洪光. 基于全卷积DenseNet的前列腺MRI分割新方法[J]. 计算机应用研究, 2020, 37(6): 1886-1889, 1894.
HU X G, YANG H G. Novel prostate MRI segmentation method based on full convolutionDenseNet[J]. Appl Res Comput, 2020, 37(6): 1886-1889, 1894.
[4]
KURATA Y, NISHIO M, KIDO A, et al. Automatic segmentation of the uterus on MRI using a convolutional neural network[J]. Comput Biol Med, 2019, 114: 103438.
[5]
LEE B, YAMANAKKANAVAR N, CHOIJ Y. Automatic segmentation of brain MRI using a novel patch-wise U-net deep architecture[J]. PLoS One, 2020, 15(8): e0236493.
[6]
AFZALI A, BABAPOUR MOFRAD F, POULADIAN M. 2D statistical lung shape analysis using chest radiographs: modelling and segmentation[J]. J Digit Imaging, 2021, 34(3): 523-540.
[7]
ZABIHOLLAHY F, SCHIEDA N, KRISHNA JEYARAJ S, et al. Automated segmentation of prostate zonal anatomy on T2-weighted (T2W) and apparent diffusion coefficient (ADC) map MR images using U-Nets[J]. Med Phys, 2019, 46(7): 3078-3090.
[8]
LITJENSG, DEBATS O, BARENTSZ J, et al. Computer-aided detection of prostate cancer in MRI[J]. IEEE Trans Med Imaging, 2014, 33(5): 1083-1092.
[9]
GRIMES D A, SCHULZ K F. An overview of clinical research: the lay of the land[J]. Lancet, 2002, 359(9300): 57-61.
[10]
刘燕茹, 罗利霞, 刘明芳. Windows系统上DICOM图像开窗显示方法实现[J]. 通讯世界, 2020, 27(1): 150.
LIU Y R, LUO L X, LIU M F. Realization of window display method of DICOM image on Windows system[J]. Telecom World, 2020, 27(1): 150.
[11]
ALSHAMMARI A. Construction of VGG16 convolution neural Network (VGG16_CNN) classifier with NestNet-based segmentation paradigm for brain metastasis classification[J]. Sensors (Basel), 2022, 22(20): 8076.
[12]
DENG J, DONG W, SOCHER R, et al. ImageNet: a large-scale hierarchical image database[C]//2009 IEEE Conference on computer vision and pattern recognition, 2009: 248-255. DOI: 10.1109/CVPR.2009.5206848.
[13]
HEK M, GIRSHICK R, DOLLÁR P. Rethinking ImageNet pre-training[EB/OL]. [2018-11-21]. https://arxiv.org/abs/1811.08883.
[14]
YU J, CAI L, CHEN C, et al. Cascade Path Augmentation Unet for bladder cancer segmentation in MRI[J]. Med Phys, 2022, 49(7): 4622-4631.
[15]
KIRKLAND E J. Bilinear interpolation[M]//Advanced computing in electron microscopy. Boston: Springer US, 2010: 261-263. DOI: 10.1007/978-1-4419-6533-2_12.
[16]
VUM H, GRIMBERGEN G, NYHOLM T, et al. Evaluation of multislice inputs to convolutional neural networks for medical image segmentation[J]. Med Phys, 2020, 47(12): 6216-6231.
[17]
吴毅, 张小勤. 人工智能在医学图像处理中的研究进展与展望[J]. 第三军医大学学报, 2021, 43(18): 1707-1712.
WU Y, ZHANG X Q. Artificial intelligence in medical image processing: progress andprospect[J]. J Third Mil Med Univ, 2021, 43(18): 1707-1712.
[18]
REN X H, XIANG L, NIE D, et al. Interleaved 3D-CNNs for joint segmentation of small-volume structures in head and neck CT images[J]. Med Phys, 2018, 45(5): 2063-2075.
[19]
吴哲, 庞亚, 明智, 等. 人工智能技术在鼻咽癌放疗危及器官自动勾画中的应用研究[J]. 实用肿瘤学杂志, 2021, 35(2): 137-141.
WU Z, PANG Y, MING Z, et al. Application of artificial intelligence technology in automatic delineation of organs at risk in nasopharyngeal carcinoma radiotherapy[J]. Pract Oncol J, 2021, 35(2): 137-141.
[20]
刘想, 高歌, 韩超, 等. 基于3D U-Net模型实现T2WI图像中前列腺的区域分割及临床验证[J]. 中国临床医学影像杂志, 2022, 33(1): 33-38, 42.
LIU X, GAO G, HAN C, et al. Regional segmentation of prostate and clinical evaluation in T2WI image based on 3D U-Net model[J]. J China Clin Med Imaging, 2022, 33(1): 33-38, 42.
[21]
KHAN Z, YAHYA N, ALSAIH K, et al. Evaluation of deep neural networks for semantic segmentation of prostate in T2W MRI[J]. Sensors (Basel), 2020, 20(11): 3183.
[22]
ZAVALA-ROMERO O, BRETOA L, XU I R, et al. Segmentation of prostate and prostate zones using deep learning: a multi-MRI vendor analysis[J]. Al, 2020, 196(10): 932-942.
[23]
BARDIS M, HOUSHYAR R, CHANTADULY C, et al. Segmentation of the prostate transition zone and peripheral zone on MR images with deep learning[J]. Radiol Imaging Cancer, 2021, 3(3): e200024.
[24]
CUOCOLO R, COMELLI A, STEFANO A, et al. Deep learning whole-gland and zonal prostate segmentation on a public MRI dataset[J]. J Magn Reson Imaging, 2021, 54(2): 452-459.
[25]
LI Y C, LIN C, ZHANG Y, et al. Automatic segmentation of prostate MRI based on 3D pyramid pooling Unet[J]. Med Phys, 2023, 50(2): 906-921.
经国家新闻出版署批准,《第三军医大学学报》于2022年第1期更名为《陆军军医大学学报》。国内统一刊号CN50-1223/R,ISSN 2097-0927。主管单位为陆军军医大学,主办单位为陆军军医大学教研保障中心。

文章信息

呼延若曦, 吴哲, 许杉杉, 崔慧林, 曹锡梅, 马晋锋, 吴毅, 顾玮
HUYAN Ruoxi, WU Zhe, XU Shanshan, CUI Huilin, CAO Ximei, MA Jinfeng, WU Yi, GU Wei
基于Vgg16-Unet模型的MRI图像下前列腺分区智能分割研究
Intelligent segmentation of prostate zones in MR images based on Vgg16-Unet
陆军军医大学学报, 2023, 45(13): 1441-1449
Journal of Army Medical University, 2023, 45(13): 1441-1449
http://dx.doi.org/10.16016/j.2097-0927.202211045

文章历史

收稿: 2022-11-08
修回: 2022-12-18

相关文章

工作空间