作者:崔淑丽,孙美玉,大连医科大学附属第一医院放射科
美国国家综合癌症网络
MRI 是评估EC 肌层浸润的首选影像学方法,但由于EC 常伴发
1. 影像组学概念和流程
影像组学基于高通量提取大量影像特征,应用自动化数据特征化算法将感兴趣区(ROI)的影像数据转化为具有高分辨率、可深度挖掘的特征空间数据进行建模,对疾病诊断、治疗及预后等进行客观定量分析。影像组学的基本流程包括图像采集与重建、ROI分割、特征提取、特征降维和筛选、数据整合及模型的建立与验证。
影像组学在恶性肿瘤中应用广泛,多聚焦在肿瘤鉴别诊断、病理分型、组织学分级、肿瘤分期及预后等方面。目前影像组学在EC 肌层浸润方面研究较少,主要包括:
①纹理分析,包括一阶统计(直方图)特征和高阶统计(纹理)特征分析,直方图特征常包括平均值、中位数、峰度、熵等,纹理特征描述某像素的空间分布属性,主要有灰度共生矩阵、灰度游程长度矩阵、灰度尺寸区域矩阵、高斯拉普拉斯滤波和小波变换等特征,纹理特征与肿瘤分期、转移、生存期等相关;
②传统机器学习(machine learning,ML)模型评估,提取量化特征后采用监督或非监督分类ML方法建立数学或统计模型挖掘更多信息,如随机森林(random forest,RF)、逻辑回归、决策树、支持向量机(support vector machines,SVM)、梯度增强;
③深度学习(deep learning,DL),具有多个隐藏层的深度神经网络,也是一种表示学习方法,常用的模型包括人工神经网络、卷积神经网络、递归神经网络等。
2. 纹理分析评估EC 肌层浸润深度
Ytre-Hauge 等纳入180 例EC 患者,分别于T1WI增强、T2WI 和表观扩散系数(ADC)图的肿瘤最大截面上绘制ROIs,通过过滤直方图技术量化肿瘤ROIs 纹理,发现当高斯拉普拉斯空间尺度滤波器对应的图像大小为6 mm 时,基于ADC 图绘制的ROI 提取得到的熵特征参数是深肌层浸润(deep myometrial invasion,DMI)的顶级预测因子,比传统MRI 准确
姚易明等纳入47 例EC 病例,于矢状位T2WI 图勾画ROI,降维产生两大主成分,相关和逆差矩为第一主成分,惯量为第二主成分,相关判断IB期EC 的曲线下面积(AUC)为0.756,敏感度为77.3%,特异度为72.0%,惯量判断IA 期EC 的AUC、敏感度、特异度分别为0.718、68.0%、63.8%,前者在DMIEC 组更高,考虑为DMI 组肿瘤细胞浸润范围更大、肌层像素间分布的随机性增加所致,而惯量反映图像纹理粗细程度,浅肌层浸润EC 肌层间细胞分布更有序,因此纹理细、惯量大。上述研究提示定量测量纹理特征参数也可以间接反映EC 肌层浸润,有助于进一步分期评估I 期EC。
3. 传统ML 组学模型评估EC 肌层浸润深度
3.1 RF 模型
RF 属于有监督的集成学习方法,常用于处理分类和回归问题,在决策树构建Bagging(一种并行式的集成学习方法)的基础上,在树的训练中引入随机属性选择,该方法分类表现优秀、扩展性好且使用方法简单。Ueno 等纳入137 例EC 患者,于T2WI、ADC、扩散加权成像和动态增强MRI 图的肿瘤最大截面分别绘制ROI,筛选出DMI 的11 个特征用于RF 模型,该模型的AUC、敏感度、特异度、准确度分别为0.84、79.3%、82.3%、81.0%,初步显示结合基于MRI 的RF 模型可能有助于临床准确、无创检测DMI。
郭冉等纳入114 例Ⅰ期EC 患者,分别在矢状面T2WI 及多期增强T1WI 图像上逐层勾画得到容积感兴趣区,结果显示基于平扫T2WI 建立预测EC 肌层浸润深度的RF 模型在测试集的AUC 高于增强T1WI 模型(0.938 比0.818),其准确度、敏感度、特异度分别为91.3%、87.5%、93.3%,推测可能是勾画ROI 未避开囊变坏死区使T2WI 图像信号更不均匀,且灰度尺寸区域方差特征的参数值在DMI组中高于浅肌层浸润组,提示DMI 组肿瘤内部异质性较大。
Qin 等纳入348 例I 期EC 患者,于矢状位压脂T2WI 序列上绘制ROI,结果发现灰度共生矩阵参数可能是DMI 的一个独立危险因素,引入相同7个变量的RF 模型对DMI 预测效率优于其他线性模型(包括SVM、梯度增强、决策树、人工神经网络),进一步提示基于ML 组学模型,特别是RF,与灰度共生矩阵结合预测DMI 的效能更佳。
3.2 逻辑回归模型
逻辑回归为监督学习方法,常用于解决概率预测、二分类或多分类问题,最大似然是逻辑回归最基本的学习算法,以此推导损失函数,使用梯度下降、坐标轴下降等优化损失函数,具有计算代价低、速度快、易于理解和实现等优点。常用的算法包括最小绝对收缩和选择算子、岭回归。
Fasmer等在注射对比剂后2 min 的T1WI 图上手动分割并绘制EC 病灶全体积,从中识别出描绘最大肿瘤掩模区域的单层平面图像ROIs,建立逻辑回归放射组学模型,对全肿瘤放射组学与单层放射组学进行比较分析,结果显示全肿瘤放射组学最小绝对收缩和选择算子模型预测DMI 的训练集AUC/测试集AUC 为0.84/0.76,肿瘤最大层面放射组学最小绝对收缩和选择算子模型预测DMI 的训练集AUC/测试集AUC 为0.85/0.77,表明全肿瘤与单层面放射组学分析在预测DMI 方面性能相似,且全肿瘤放射组学模型预测DMI 的训练集AUC 高于术前活检病理评估高危EC 的AUC(0.84比0.55),更有助于临床术前快速、无创评估EC 风险性。
3.3 决策树模型
决策树是一种监督学习算法,以树状结构构建分类或回归模型,通过将数据集不断拆分为更小的子集,最终形成具有决策节点和叶节点的树,能精确对类别进行排序。Stanzione 等纳入54例子宫内膜样亚型EC 患者,在T2WI 图上分割EC病变得到容积感兴趣区,最终得到3 个信息量最丰富的特征:基于高斯拉普拉斯滤波(sigma=2 mm)图像的灰度尺寸区域大面积强调、灰度尺寸区域大面积低灰度强调以及基于小波变换的一阶能量,经J48 决策树算法确定ML 模型并评估:该模型训练集的准确度为86%,AUC 为0.92,测试集的准确度和AUC 分别为91%和0.94,与Ueno 等研究相比,该研究预测DMI 准确度更高,可能是绘制容积感兴趣区有助于单个成像序列特征获得更高的精度值。
3.4 SVM 模型
SVM 属于监督学习算法,常用于处理二分类预测、多分类预测和回归问题,其优化目标是找到一个最优分离超平面,最大化从数据点到超平面的最小距离之和,距离超平面最近的训练样本称为支持向量。
SVM 泛化能力优秀、结构化风险小,已成为目前ML 常用方法,多用于临床决策支持等精准医学问题。Mainenti 等纳入133 例EC 患者,分为2 个风险组,其中局限于子宫内膜或浸润肌层厚度<50%为低风险组,局部肌层浸润>50%为高风险组,分割T2WI 获得容积感兴趣区,保留了4 个特征:基于原始图像的形状
3.5 梯度增强模型
梯度增强是一种集成学习算法,用于分类或回归预测模型问题,提供多种目标函数,包括回归、分类和排序,擅长处理异常值和缺失值较多的无规则数据,可进行自主学习,模型具有可解释性和灵活性。
Otani 等纳入200 例EC 患者,从T2WI、ADC 和动态增强MRI 图像中提取144 个放射组学特征,经梯度增强创建ML 分类器预测DMI:4 名放射科医师的AUC 为0.83~0.88,优于或等同于ML 分类器的平均AUC(0.83),无显著差异,提示放射科医师对DMI 的诊断性能优于或等同于ML 分类器,ML分类器并未显示出统计学上的显著改善,然而Stanzione 等研究发现放射科医师结合ML 对于DMI的诊断准确度从82%提高到100%(P=0.48),考虑原因可能是两者研究样本数量不同(200 比54),提示未来需要进一步扩大样本量并持续探索改进ML 分类器,以有效地提高放射科医师对DMI 的诊断准确度。
同时,该研究中T2WI 提取的肿瘤体积和特征最多被DMI 选择,提示肿瘤体积也是评估EC 肌层浸润的重要风险因素。
4. DL 评估EC 肌层浸润深度
DL 是一种基于非监督或半监督的特征学习和分层特征提取等算法获取特征的ML 方法,使用多层非线性处理单元的级联进行特征提取和转换,属于深层神经网络。与传统算法相比,DL 效率高、模型可塑性高,能根据问题自动建立模型,具有一定普适性,但训练成本高、所需数据量大。
Urushibara 等采用204 例EC 患者和184 例非EC 癌性病变患者的T2WI、ADC 和动态增强T1 加权多个序列的单图像集和联合图像集训练卷积神经网络,结果显示单图像集和联合图像集的卷积神经网络的AUC 分别为0.88~0.95 和0.87~0.93,且横轴位ADC 图和T1 增强图像获得的单图像集卷积神经网络的AUC 明显高于3 位放射科医师(0.95、0.93 比0.77、0.84)。
Tao 等采用ResNet 网络优化评估T2WI 和MRI 增强成像,诊断EC 肌层浸润深度的准确度和特异度分别为88.75%和95%,敏感度为87.5%。Mao 等利用Unet体系结构实现了一种基于DL 的自动分割模型,通过计算肿瘤区域与子宫区域的面积比,可以更有效评估早期EC 分期。Chen 等提出一种基于DL 的二阶段CAD 方法评估MRI 图像上EC 肌层浸润深度,敏感度为67%,特异度为88%,准确度为85%。总之,DL 在MRI 诊断EC 肌层浸润深度方面采用智能算法显著提高了EC 分期诊断效率,是目前的研究热点。
来源:崔淑丽,孙美玉.MRI影像组学评估Ⅰ期子宫内膜癌肌层浸润深度研究进展[J].中国医学影像学杂志,2025,33(04):445-448.
(本网站所有内容,凡注明来源为“医脉通”,版权均归医脉通所有,未经授权,任何媒体、网站或个人不得转载,否则将追究法律责任,授权转载时须注明“来源:医脉通”。本网注明来源为其他媒体的内容为转载,转载仅作观点分享,版权归原作者所有,如有侵犯版权,请及时联系我们。)