作者:苏悦,聂生东,上海理工大学健康科学与工程学院;龚敬,复旦大学附属肿瘤医院放射科;贾守强,山东第一医科大学附属济南市人民医院影像科
据2020年全球癌症数据统计报告,肺癌的死亡率居于癌症之首,其中约85%的肺癌是
不同病理组织类型的早期肺腺癌具有相似的影像特征,如何快速准确判断早期肺腺癌的病理类型仍是目前临床上的难题,影像组学和深度学习的出现为其提供了新的思路。本文主要总结影像组学和深度学习在预测肺腺癌组织类型方面的研究进展,就GGN的影像学特征和影像组学特征以及深度学习方法在早期肺腺癌鉴别诊断中的应用进行综述。
1.肺腺癌的组织病理学分类
根据2021年世界卫生组织发布的肺部肿瘤组织学分类方法,肺腺癌分为微浸润腺癌(minimally invasive adenocarcinoma, MIA)和浸润性腺癌(invasive adenocarcinoma, IAC)。虽然非典型腺瘤样增生(atypical adenomatous hyperplasia, AAH)和原位癌(adenocarcinoma in situ, AIS)在新的分类方法中被归入腺体前驱病变(precursor glandular lesions),但并不表示其不具有风险,仍需长期随访。
有研究表明,肺腺癌遵循AAH—AIS—MIA—IAC直线式的发展模型。不同病理阶段的肺腺癌的治疗方法和预后也具有较大差异。组织病理类型为AIS和MIA均生长缓慢,具有较好的预后效果,术后总体五年无病生存率接近100%。在新的分类方法中AIS被划分为腺体前驱病变,是否进行手术切除治疗需要医生慎重考虑。而IAC具有多种亚型,其浸润范围明显高于MIA,即使术后配合放、化疗等辅助治疗,五年无病生存率仅为40%~80%。因此,尽早发现和准确分类是提升肺腺癌患者生存率的重要措施。
2.影像学特征和影像组学特征在肺腺癌分类中的应用
2.1 影像学特征在早期肺腺癌侵袭性预测中的应用
影像学特征可分为形态学特征与定量特征。实际应用中,医师常根据GGN的形态学特征(胸膜凹陷征、边缘征、血管集束征、支气管充气征、空泡征等)初步判断肺腺癌侵袭性。
Wu等分析主观评估的影像学特征,发现血管改变、边缘不光滑和清晰的肺肿瘤界面是诊断直径小于10 mm的纯磨玻璃结节(pure ground-glass nodule, pGGN)为IAC的重要特征。定量特征分析方法首先提取CT图像中GGN的直径、体积、质量、实性成分占整个肿瘤的比例以及CT值等特征,再用单因素分析法与多因素分析法筛选出具有统计学意义的特征,最后基于机器学习算法建立分类模型。
CT直方图特征的改变能够反映GGN的细微变化。Zhan等研究了直径在5~10 mm之间的小型GGN,发现CT值大于-449.52 HU的GGN更有可能是IAC。与之不同,Tamura等利用多因素Logistic回归分析发现标准摄取值和CT均值是预测IAC的独立预测因素,研究显示非侵袭性腺癌组的CT均值为(643.6±9.4)HU,IAC组的CT均值为(365.9±11.4)HU。以上两个研究结论不同的原因主要是由于研究对象不同,后者的研究对象是更大直径范围的GGN。
GGN的直径和实性成分在整个GGN中的占比在肺腺癌的侵袭性预测方面有着重要的意义,根据GGN中是否含有实性成分可将GGN分为pGGN和混和性磨玻璃结节(mixed ground-glass nodule, mGGN)。Li等研究表明肺腺癌的浸润程度随着GNN中实性成分比例的增加而增大,且实性成分的占比大于25.8%的GGN更有可能表现为IAC。但pGGN也有可能被诊断为IAC。
Han等研究发现最大横截面积是pGGN被诊断为IAC的独立预测因子。然而,最大横截面积只代表单个肿瘤切面而不是整个肿瘤,具有一定局限性。Lee等分析了直径不超过20 mm的pGGN的定量影像学特征,发现最大直径是区分pGGN型肺腺癌是否具有侵袭性(诊断为MIA和IAC)的显著独立预测因素,最大直径的截止值为10 mm,且pGGN型肺腺癌的侵袭性风险随着最大直径的增大而增大。
此外,也有学者仅对mGGN进行研究。Yanagawa等发现当肿瘤实性部分的最大径在肺窗和纵隔窗中分别为0.8 cm和0.6 cm时,可以区分mGGN是否为IAC。与之不同,Wang等的研究表明,相较于直径与体积,mGGN的质量因素具有更高的分类价值,判断mGGN是否为IAC的临界值为254.87 mg。
此外,肿瘤周围的微环境与癌症的发生、生长和转移也有着紧密的联系。Wu等提取了肿瘤及围绕其2 mm区域的影像组学特征,发现基于肿瘤及其周围区域的混和特征建立模型比单独基于肿瘤自身或基于瘤周区域特征建立的模型更有优势。
目前临床上并没有统一的基于形态学特征判定早期肺腺癌类型的标准,相比于定性分析法,定量分析法以定量特征作为分类的依据,得到的结果更为客观。但单个影像特征难以描述复杂的GGN,因此,需要考虑结合多个具有诊断价值的影像学特征,全面评估GGN的特征,进一步提升预测早期肺腺癌的病理类型的准确率。
2.2 影像组学特征在早期肺腺癌侵袭性预测中的应用
在GGN的CT图像中,不仅存在可度量的影像学特征,还有大量人眼无法识别的高阶特征,这些特征对预测肺腺癌的侵袭性也有重要作用。影像组学可以通过算法自动提取和筛选感兴趣区域的灰度直方图特征、几何特征、纹理特征、分形特征与其他高阶特征,利用筛选出的有效特征构建影像组学分类模型。
目前,已有大量基于影像组学方法的回顾性研究被报道。Li等提取了57个影像组学特征来描述不同病理类型的肺腺癌,对于鉴别GGN是否为IAC,SVM分类的准确率是88.1%,高于医师的诊断性能(准确率为60.8%),但此研究仅用准确率评价模型,不足以说明模型的整体性能。
而She等则采集了高分辨率薄层CT的数据,利用LASSO回归对60个影像组学特征进行特征降维,采用5个影像组学特征(最大直径、均方根值、熵、标准差和长游程优势)建立二元Logistic回归模型来区分GGN的病理类型是否为IAC,在内部和外部验证队列中均表现优异,其ROC曲线下面积分别为0.95和0.89。相较于其他模型,Logistic回归模型的表现在小数据集分类中更为突出。
此外,也有研究对比了影像学模型和影像组学模型在预测肺腺癌侵袭性方面的表现。Fan等将28个影像组学特征简化为2个预测因子构成影像组学模型,并将其与采用多因素Logistic回归分析建立的影像学模型进行对比,影像组学模型的结果显著高于影像学模型。
Xue等构建了由实性成分的有无和分形维数两个特征组建的临床-影像组学组合模型,在鉴别GGN是否具有侵袭性(诊断为MIA和IAC)中取得了较好效果。事实上,影像学特征和影像组学特征对肺腺癌的分类均有贡献,将两类特征融合到一个模型能够更好地帮助提升模型的性能。但目前将二者融合的研究并不多见,对于传统影像组学方法,恰当地融合影像学特征与影像组学特征,并在模型构建方面将各类机器算法进行组合与改进,最大限度地发挥各类算法的优势,这将是未来影像组学在早期肺腺癌诊断领域发展的趋势。
3.深度学习在肺腺癌分类中的应用
与传统影像组学不同的是,深度学习的特征提取过程不依赖于人工参与,而是通过组合浅层特征,挖掘并提取深层特征来学习样本的内在规律,从而实现自动提取特征。
深度学习方法的成功主要依赖于大量带标签的数据,但获取大量的医学图像数据是较为困难的,数据量较少时,有学者采用二维卷积神经网络(2 dimensional convolutional neural network, 2D CNN)来预测早期肺腺癌的病理类型。
Gong等将经过GNN中心点的轴、冠和矢的三个方向的CT切片合并为一张RGB图像作为2D CNN的输入,其分类性能与专家医生相当。为弥补数据量不足的问题,Ding等[23]选取了以病灶中心切片为中心的上下12张相邻的2D图像,将更多包含病理信息的数据作为模型的输入,分别在LeNet与DenseNet的基础上改进网络,进一步提升了肺腺癌分类的准确率。
三维卷积神经网络(3 dimensional convolutional neural network, 3D CNN)能够获取到更全面的结节信息。Yanagawa等比较分析了放射科医生和3D CNN的分类结果,发现3D CNN的诊断性能几乎与经验丰富的医师相同,且可以帮助经验较少的放射科医师提升分类准确率。
研究者们采用固定大小的结节体积块训练神经网络完成分类任务,为一次性获取完整的结节,通常选取样本中最大结节的体积作为模型的输入尺寸,然而这也为小结节的分类带来了困难,因此Zheng等将尺度转换模块引入CNN中,提出了一种能适应不同分辨率图像的网络STM-Net,解决了小结节目标的分类问题。该网络可成为适应结节多样性分类的范本。此外,有研究表明,利用在结节立方体上叠加其分割掩膜从而去除磨玻璃
深度学习在大量数据的基础上仅处理单个任务是比较耗费资源的,有学者在3D CNN分类任务的基础上加入了分割或检测等辅助任务来帮助得到更好的结果。Wang等将检测任务与分类任务相结合,提出了一种可以组合多尺度分辨率数据的多任务学习网络框架,该网络先基于Faster-R-CNN检测结节,再将分类任务作为解码器的分支添加到检测网络中,其AUC值优于传统分类方法和经验丰富的医师。在肺腺癌的多任务学习研究中,分割任务和分类任务的联合更为常见。
Zhao等设计了一种联合训练的神经网络,该网络由具有两条分支的主干网络构成,一条分支由卷积层、全局池化层、全连接层构成,最后经softmax层输出当前结节的分类概率值,另一分支将主干网络提取的结节特征进行上采样输出结节分割掩膜,其整体分类性能甚至超过了放射科医师。
在该网络中,分割任务作为分类任务的辅助任务,在损失函数中占比并不高,在保证精确分类的前提下进一步提升了模型的泛化性能。与之不同,Yu等在多任务学习网络中对分类和分割任务的损失采用相同的权重,但进一步细化了分类任务的损失函数,同时强调了类间相似性和类内差异性,得到了更高的准确率和F1值。
深度学习模型结构的设计是决定分类结果优劣的关键因素,过于简单的模型容易出现欠拟合现象,而更为常见的是过拟合现象,数据量不足和模型过于复杂是引起过拟合的主要原因,在训练过程中需通过数据增强、正则化、Dropout等方法来降低过拟合对模型的影响。
2D CNN在小样本数据的分类任务中具有优势,而当数据量较大时,3D CNN在分类任务中比2D CNN更为有效,原因是医学图像具有连续性,3D CNN在2D CNN的基础上增加提取了CT图像的层间特征,进一步提升了模型的泛化性能,但三维卷积同时也带来了计算量大幅提升的问题,如何通过改进网络结构来减小计算量和提升3D CNN的训练速度未来需要被进一步探索。
4.传统机器学习与深度学习的结合方法在肺腺癌分类中的应用
深度学习虽然只需将GGN的CT图像作为网络输入就可以挖掘深层次特征,但实则非常依赖于大数据的支持;传统影像组学方法对数据量要求较低,且临床获取病理和影像学特征较为方便,然而也需要大量的人工参与,提取的特征不能完全地表现目标区域的特征。两类方法各有优缺点,Ashraf等对比研究了两种方法在肺腺癌组织病理类型分类方向的结果,虽然基于支持向量机(support vector machine, SVM)的方法在准确度和特异性方面略高于基于CNN的方法,但是后者的灵敏度高于前者。
单一的方法总是存在局限性,有研究表明,将深度学习编码器提取的特征与影像学或影像组学特征结合而建立的模型,其预测结果更具稳健性。Wang等将传统方法提取的影像组学特征作为输入传入神经网络,取得了比自动提取特征的深度学习方法更高的预测精度。
与之不同,Wang等将GGN的形态学特征、临床特征以及在3D-ResNet-34中提取的深度学习特征进行融合,将其应用于肺腺癌二分类、三分类以及IAC的亚型分类,均取得了不错的结果。此外,传统机器学习与深度学习的结合也可以帮助减轻工作量,Wang等基于集成学习的思想来减少模型的计算量相互独立的子分类器共享CNN层的参数,使用AdaBoost方法组合子分类器,从而构建一个强分类器来预测肺腺癌类型,在降低网络计算量的同时,也提升了分类网络的泛化能力,此方法可作为结合网络应用的新思路。
Xia等先通过3D-UNet分割结节区域,在分割网络的基础上添加全连接层分支进行微调完成分类任务,此外还基于SVM分类器建立了放射组学模型,通过加权融合的方式得到了两个融合方案的分类分数,由于研究数据较少,SVM方法在结果中表现出了较大的优势。
传统机器学习可以直观地解释不同类别之间的特征差异,在小数据集的分类任务中有着较大优势,但当数据量较大或不同类别样本之间差异性较小时,用简单的传统机器学习模型来表征复杂样本与标签之间的非线性关系具有挑战性。深度学习的学习能力和泛化性能更强,数据集的大小和质量是决定深度学习模型的性能优劣的关键。
融合方案将二者的优势进行结合并取得了较好的效果,目前的融合策略主要包括:(1) 将传统机器学习提取的特征直接输入CNN继续学习;(2) 将传统机器学习和CNN提取的特征拼接后进行分类;(3) 将集成思想融入CNN以缓解数据量不足引起的过拟合问题;(4) 最大、最小及加权融合策略。但融合方案的分类效果优于单独的深度学习方案或传统机器学习方案的结论仍需进一步研究,如何设计合适的融合策略来为临床提供更准确的辅助诊断信息将是下一阶段的发展方向。
5.分类方法的评价指标
训练后的模型若直接用于测试,可能会出现过拟合或欠拟合现象,因此需先采用验证方法来初步评估模型和调整参数。留出法是最经典的验证方法之一,在验证过程中需要尽可能保证数据分布一致,且需多次验证。当数据集较小时,一般采用留一验证法和自助法,而当数据集较大时,则采用K折交叉验证法。
对于验证产生的结果,需对其进行评估,即用定量的数值来描述模型预测结果和标签之间的差距,以达到衡量模型分类性能的目的。受试者工作特性(receiver operating characteristic, ROC)曲线可以直观地通过图像来可视化分类结果,一般使用ROC曲线下面积(area under curve, AUC)、准确率(accuracy, ACC)、灵敏度(sensitivity, SEN)、特异度(specificity, SPE)和F1分数来评价分类模型,其中AUC值不易受正负样本比例变化的影响,是最重要的评价指标之一,AUC值越接近1,模型可靠性越高。
6.总结与展望
目前临床对于术前预测肺腺癌组织学类型的需求十分迫切,尽早准确地鉴定肺腺癌的侵袭性能够有效促进患者的临床疗效。本文对影像组学和深度学习方法在早期肺腺癌组织学分类中的应用进行综述,主要介绍了深度学习及其与影像组学结合的研究方法。影像组学需要人工参与来提取和筛选GGN的形态学特征、定量特征和影像组学特征从而建立模型,深度学习则进行端到端的学习,自动提取深层次特征,快速准确地完成分类任务,预测产生的结果甚至高于医学专家水平。
目前深度学习已经成为了预测早期肺腺癌的主流方法,在大数据和不断改进的网络模型的支持下,未来深度学习将拥有更多的可能性。深度学习方法在预测肺腺癌组织病理分型方面取得了一定的成绩但仍存在一些不足,现对深度学习方法的未来发展提出以下展望:(1) 构建早期肺腺癌多中心数据库,增加数据量与数据多样性,模型的泛化性能将进一步提升;(2) 基于深度学习模型只能学习到CT图像中的信息,将有价值的临床特征与影像组学特征恰当地融入深度学习网络中或能提供更好的分类结果;(3) 目前在该领域监督学习是最主要的深度学习形式,训练过程中需要大量有标签的数据,为降低训练成本,未来无监督学习和半监督学习在该领域将有更广泛的应用。
来源:苏悦,龚敬,贾守强等.基于CT影像的早期肺腺癌病理类型预测方法研究进展[J].北京生物医学工程,2024,43(01):98-104.
(本网站所有内容,凡注明来源为“医脉通”,版权均归医脉通所有,未经授权,任何媒体、网站或个人不得转载,否则将追究法律责任,授权转载时须注明“来源:医脉通”。本网注明来源为其他媒体的内容为转载,转载仅作观点分享,版权归原作者所有,如有侵犯版权,请及时联系我们。)