2. 中国科学院大学, 北京 100049
2. University of Chinese Academy of Sciences, Beijing, 100049, China
创伤是全球范围内的重要死因, 其中出血是创伤相关死亡的主要原因之一, 而且进展往往较快, 超过半数出血所致死亡发生在创伤后24h[1-3]。因此, 探讨创伤出血死亡的风险预测对于预防因出血导致创伤患者死亡具有重要的意义。目前, 临床上通常使用创伤评分, 比如简明损伤定级(abbreviated injury scale, AIS)、修正创伤评分(revised trauma score, RTS)等对患者预后进行初步判断[4]。该类评分虽然简单直观, 使用简便, 但无法实时反应严重创伤患者的病情变化, 且预测的准确率不高。随着大数据和人工智能时代的到来, 为将机器学习引入医疗领域创造了有利的条件[5]。为此, 本研究回顾性分析国家创伤医学中心数据库2023年4月1日至2024年3月31日严重创伤患者临床资料, 利用Logistic回归和弹性网络(ElasticNet)与支持向量机(support vector machine, SVM)两种机器学习方法构建死亡预测模型[6-7], 探讨不同变量筛选方法和不同模型的预测效能, 以期为后续建立更加完善的严重创伤患者出血死亡预测提供借鉴和参考。
1 资料与方法 1.1 研究对象通过国家创伤医学中心创伤数据平台, 收集全国2023年4月1日至2024年3月31日严重创伤患者(ISS≥16分)数据11 496例, 涵盖全国28省326市, 排除资料不完整数据后, 最终共纳入5 601例创伤患者, 研究变量包括性别、年龄、受伤机制(道路交通伤, 坠落伤, 暴力袭击, 机械损伤, 动物咬伤, 锐器刺伤及其他伤)、院前救治时的生命体征, 包括舒张压、收缩压及脉压差、心率、呼吸频率、血氧饱和度、是否出血及出血部位、GCS评分及ISS评分; 结局变量为医院救治结局。
1.2 变量筛选按照结局变量将患者分为死亡和存活两组, 计数资料以例数(百分比)表示, 采用卡方检验分析[8]; 计量资料符合正态分布的以均值±标准差表示, 不符合正态分布的以中位数(四分位数)[M(Q1, Q3)]表示, 采用秩和检验进行组间比较[9]; 以P < 0.05为差异统计学意义。选择有差异的变量作为变量初筛参考依据, 与三种机器学习筛选方法进行比较。本文采用了三种机器学习方法进行变量筛选: ElasticNet、递归特征消除法(recursive feature elimination, RFE)以及基于互信息的特征选择[10-12]。
1.2.1 ElasticNet为保证正则化项的合理性, ElasticNet对输入特征Χ进行标准化处理, 使每个特征具有相同的尺度, 完成定义参数网格后, 将数据按7∶3的比例分成训练集和验证集, 在网格上训练模型并计算验证误差, 并选择误差最小的参数组合[13]。
1.2.2 RFESVM作为基础模型, 通过递归评估特征重要性, 将数据按7∶3的比例分成训练集和验证集, 在测试集中评估筛选后特征的预测能力[14]。
1.2.3 基于互信息的特征选择将所有变量进行离散化处理, 统计每个特征变量与目标变量的互信息值, 构建特征变量和目标变量的联合分布, 利用互信息公式计算每对特征和目标变量的互信息。最终按照互信息值从高到低对特征变量进行排序, 根据预设的特征数量或互信息阈值筛选重要特征变量[15]。
1.3 模型构建分别采用Logistic回归、ElasticNet和SVM进行模型构建, 评估指标包括总准确率、存活准确率、死亡准确率及曲线下面积(area under curve, AUC)[16]。
1.3.1 Logistic回归Logistic回归是一种经典的广义线性模型, 常用于解决二分类问题。其核心思想是通过Sigmoid函数将线性回归的结果映射到0-1之间, 从而得到事件发生的概率。该模型具有良好的可解释性, 并作为衡量更复杂机器学习模型性能的基准。
1.3.2 ElasticNet模型ElasticNet是带有L1和L2正则化的线性回归模型, 本质是在数据维度空间内对数据进行线性拟合, L1正则化避免了变量之间的多重共线性问题, 起到了变量筛选的作用; L2正则化降低了模型过拟合的风险, 能够提高模型的泛化性。该方法作为一种经典有效的线性回归模型, 若数据的线性可分性良好, 则预期将有良好的测试结果和预测性能。本研究采用坐标下降算法(coordinate descent)迭代求解, 逐步优化每个回归系数, 最终逼近于最优解[17]。
1.3.3 SVM模型SVM方法是选择一个超平面, 通过最大化不同类别数据点到超平面的最小距离实现分类的方法。SVM的核技巧是一种处理非线性可分数据的重要方法, 可以在不显式地将数据映射到高维甚至无限维空间的情况下, 计算数据点在高维空间中的内积。若数据在所给维度内是非线性可分的, 则可以使用SVM的核函数解决。对所有输入特征进行标准化处理后, 本研究分别使用线性核、高斯核和sigmoid核三种核函数进行模型构建[18-20], 依然将数据按7∶3的比例分成训练集和验证集, 在训练集和验证集上分别评估模型性能, 最终利用训练好的模型对测试数据进行预测。
2 结果 2.1 一般资料5 601例创伤患者中, 男性3 960例, 女性1 641例; 年龄1~96岁。组间比较分析显示, 年龄、受伤机制、舒张压、收缩压以及脉压差、呼吸频率、血氧饱和度、GCS评分、ISS评分等变量在两组间的差异有统计学意义, 见表 1。
| 变量 | 患者(n=5601) | 存活(n=5022) | 死亡(n=579) | 统计值 | P值 |
| 性别(n, %) | 2.490 | 0.115a | |||
| ??男 | 3 960(70.7) | 3 567(71.0) | 393(67.9) | ||
| ??女 | 1 641(29.3) | 1 455(29.0) | 186(32.1) | ||
| 年龄(岁) | 55(41, 65) | 52.02±17.59 | 57(41, 69) | -3.301 | 0.001b |
| 受伤机制(n, %) | — | — | — | 24.168 | < 0.001a |
| ??道路交通伤 | 3 555(63.5) | 3 143(62.6) | 412(71.2) | ||
| ??坠落伤 | 1 474(26.3) | 1 366(27.2) | 108(18.7) | ||
| ??暴力袭击 | 62(1.1) | 55(1.1) | 7(1.2) | ||
| ??机械损伤 | 102(1.8) | 88(1.8) | 14(2.4) | ||
| ??动物咬伤 | 22(0.4) | 21(0.4) | 1(0.2) | ||
| ??锐器刺伤 | 140(2.5) | 126(2.5) | 14(2.4) | ||
| ??其他伤 | 246(4.4) | 223(4.4) | 23(4.0) | ||
| 舒张压(mmHg) | 71.35±25.16 | 74.11±21.67 | 52(0, 74) | -18.499 | < 0.001b |
| 收缩压(mmHg) | 115.12±39.78 | 119.83±34.39 | 85(0, 114) | -20.245 | < 0.001b |
| 脉压差(mmHg) | 43.77±20.47 | 45.72±19.32 | 30(0, 40) | -19.287 | < 0.001b |
| 心率(次/min) | 87.25±27.42 | 87.94±24.00 | 90(58, 116) | -0.588 | 0.556b |
| 呼吸频率(次/min) | 19.68±5.87 | 19.97±5.00 | 20(10, 30) | -2.997 | 0.003b |
| 血氧饱和度(%) | 96(84, 98) | 96(89, 98) | 80(0, 93) | -18.382 | < 0.001b |
| 出血(n, %) | 5131(91.6) | 4612(91.8) | 519(89.6) | 3.265 | 0.071a |
| 出血部位(n, %) | |||||
| ??头部 | 3 563(63.6) | 3 230(64.3) | 333(57.5) | 10.383 | 0.001a |
| ??四肢 | 1 789(31.9) | 1 592(31.7) | 197(34.0) | 1.289 | 0.256a |
| ??躯干 | 733(13.1) | 624(12.4) | 109(18.8) | 18.696 | < 0.001a |
| 交界部位 | 71(1.3) | 57(1.1) | 14(2.4) | 6.827 | 0.009a |
| GCS评分(分) | 15(11.15) | 15(12, 15) | 4(3, 11) | -28.332 | < 0.001a |
| ISS评分(分) | 20(17, 25) | 19(17, 22) | 25(19, 34) | -15.214 | < 0.001a |
| 注: a为卡方检验, b为秩和检验; 1 mmHg=0.133 kPa | |||||
在使用算法筛选变量前, 首先根据临床经验与获取数据的可实现性进行了人工初筛, 留存了性别、年龄、舒张压、收缩压、脉压差、心率、呼吸频率、血氧饱和度、GCS评分、是否出血10个特征变量。对这10个特征变量, 根据三种特征筛选方法(ElasticNet、递归特征消除法、基于互信息的特征选择)的结果, 筛选出的重要特征如下。
ElasticNet: 通过结合L1和L2正则化, 筛选出的特征按系数绝对值大小排序为: GCS评分、年龄、脉压差、收缩压、血氧饱和度、心率、是否出血、性别、呼吸频率、舒张压, 其中, 舒张压的系数被压缩为0, 同时由于舒张压和收缩压、脉压差存在线性相关, 故而筛除。最终保留其余9个变量。结果如图 1所示。
|
| 图 1 ElasticNet和基于互信息的特征选择排序 Fig 1 Feature selection ranking ofthe ElasticNet and based on mutual information |
|
|
递归特征消除法: 按照准确率作为选取标准, 最终选取的特征集合为年龄、收缩压、脉压差、心率、呼吸频率、血氧饱和度、GCS评分共7个变量。筛除的特征为是否出血、性别、舒张压。
基于互信息的特征选择: 筛选结果集中于与目标变量信息关联度从高到低的特征排序为: GCS评分、收缩压、舒张压、脉压差、呼吸频率、心率、血氧饱和度、年龄、是否出血、性别。结果如图 1所示。
对变量的筛选和重要性排序的最终结果显示, 这三种方法筛选变量的结果一致性很高。同时, ElasticNet及递归特征消除法共同筛出重要性较低的变量包括是否出血和性别, 这说明这两个特征不会对受伤患者的结局造成过重的影响。因此, 综合评定后, 本研究选择ElasticNet法筛选出的变量作为特征变量进行模型构建。
2.3 模型构建Logisitc回归模型分类结果的总准确率为83.2%, 存活准确率为84.0%, 死亡准确率为76.3%。ElasticNet模型分类结果的总准确率为78.9%, 存活准确率为78.5%, 死亡准确率为81.7%。SVM模型分别使用线性核、高斯核和sigmoid核三种核函数进行模型构建, 结果发现使用线性核时总准确率为83.3%, 使用高斯核时总准确率为84.7%, 使用sigmoid核时总准确率为60.1%。为此, 选择使用高斯核作为核函数进行模型构建。最终总准确率为84.7%, 其中存活准确率为86.1%, 死亡准确率为72.4%。见表 2。
| 模型 | 总准确率 | 存活准确率 | 死亡准确率 |
| Logistic回归 | 82.1% | 83.3% | 71.8% |
| ElasticNet | 78.9% | 78.5% | 81.7% |
| SVM(高斯核) | 84.7% | 86.1% | 72.4% |
| SVM(线性核) | 83.3% | 84.3% | 75.8% |
| SVM(sigmoid核) | 60.1% | 60.1% | 60.8% |
为评估不同模型的分类能力, 本研究绘制了ElasticNet、SVM和Logistic回归在测试集上的ROC曲线, 并计算了其AUC, 所有三个模型的ROC曲线均远高于Random Guess, 这表明三个模型对数据集具有显著的分类能力。从AUC结果来看, ElasticNet模型表现最佳(AUC = 0.88), 优于SVM和Logistic回归模型(二者AUC均为0.86), 见图 2。采用DeLong检验对三种模型进行两两比较, 结果显示所有P值均小于0.01, 说明模型间AUC差异具有统计学意义(SVM vs. LR: P < 0.01;ElasticNet vs. SVM: P < 0.001;ElasticNet vs. LR: P < 0.001)。
|
| 图 2 Logistic回归、ElasticNet和SVM三种预测模型ROC曲线 Fig 2 ROC cure of the Logistic Regression, ElasticNet and SVM predicted model |
|
|
为了检验样本是否服从模型映射到概率空间的概率分布, 使用卡方分布对样本数据分布与模型映射的概率空间理论分布进行了假设检验。在假设检验中, 原假设为样本数据分布与模型映射的概率空间理论分布一致。检验结果显示, P值为0.42(> 0.05), 无法拒绝原假设, 说明样本数据分布与本研究构建的理论模型映射的概率空间理论分布是一致的, 证明使用ElasticNet构建的分类模型有统计学意义。
3 讨论出血是创伤早期死亡的最主要原因, 但临床上如何评估出血的严重程度, 如何预测创伤患者的临床结局, 一直是困扰创伤临床救治的难点和痛点问题。因此, 探讨创伤出血死亡的风险预测对于预防因出血导致创伤患者死亡具有重要的意义。本研究利用Logistic回归和弹性网络(ElasticNet)与SVM两种机器学习方法构建死亡预测模型, 探讨不同变量筛选方法和不同模型的预测效能。在特征变量选择上, 传统的医学统计模型大多通过t检验、卡方检验以及Logistics回归模型进行变量相关性计算, 随着研究方法和人工智能等技术的快速发展, 这些统计方法无法面对日益复杂的特征变量筛选, 机器学习则可以处理更多维的非线性变量和场景。Oh等[21]研究提到, Logistic回归作为医学上常用的一种模型广泛用于医学信号处理领域, 可用于分析不同变量与风险因子间的关联关系, 然而它也存在严重的局限性, 即必须假设所处理的数据的输入和输出是线性关系, 无法处理非线性问题, 也忽视了数据变量间可能存在的多重共线性。为了避免这种情况的出现, Taeseob团队利用了基于VIF滤波的方法和Boruta算法等机器学习方法进行了变量筛选, 为进一步的诊断方法提供了良好的数据保证。为此, 本研究采用ElasticNet、RFE和基于互信息的特征选择方法筛选变量, 其中ElasticNet使用L1与L2正则化, L1正则化能够剔除多重共线性的变量, 起到变量筛选的作用, L2正则化降低了模型过拟合的风险; RFE使用迭代的方式, 通过逐步优化筛选出更具全局意义的特征; 基于互信息的方法可以有效捕捉非线性相关性, 对非线性数据有更好的筛选作用。
传统的创伤评分难以评估创伤患者病情背后复杂的非线性关系和多变量间的相互作用, 造成对创伤出血导致的死亡风险预测准确性不高。而机器学习方法能够从海量数据中学习和识别复杂的模式。近些年来, 越来越多的医学相关研究开始应用机器学习方法。Gao等[22]的研究使用集成模型的机器学习方法预测COVID-19的死亡风险, 能够对COVID-19患者进行快速、准确的死亡风险分层。这表明机器学习方法在医学领域具备普遍适用的有效性。在本研究模型构建中, Logistic回归模型、ElasticNet模型和SVM模型三种方法的效果都处于比较良好的区间, 然而从急救的角度分析, 死亡准确率的重要性更大, 误判的代价也更高, 相比于存活准确率, 在创伤出血死亡预测模型的构建中应更注重死亡准确率, 与Logistic回归算法的死亡准确率71.8%和SVM算法死亡准确率72.4%相比, ElasticNet对死亡病例的预测准确率达到81.7%, 效果更佳。因此, ElasticNet模型更符合急救的应用场景。
尽管本研究在特征筛选和模型构建上取得了良好效果, 但仍存在以下的局限性: 本研究训练所使用的数据集存在样本量偏少、样本类别分布不均衡等问题, 下一步在部署基于本算法的伤员出血智能识别系统后, 可以利用分布式在线学习的方法, 在使用过程中, 不断使用新数据更新模型, 从而解决有限的数据集带来的问题和缺陷, 同时, 进一步采用深度神经网络算法优化模型。
综上所述, 机器学习方法能够有效提高创伤出血死亡风险预测效果, 在创伤出血死亡风险预测方面具有较好的应用前景。
利益冲突??所有作者声明无利益冲突
作者贡献声明??张进军: 研究设计和实施; 王奕权、田思佳、牛升梅: 数据分析、模型分析和文章撰写; 黄志蓓、秦飞、张进军: 研究指导、文章修改
| [1] | 黄伟, 许庭珉, 王天兵, 等. 创伤中心医疗质量控制指标专家共识[J]. 北京大学学报(医学版), 2024, 56(3): 551-555. DOI:10.19723/j.issn.1671-167X.2024.03.025 |
| [2] | 牛升梅, 朱蕗颖, 张进军. 创伤大出血快速识别与诊断的研究进展[J]. 中华急诊医学杂志, 2025, 34(1): 117-122. DOI:10.3760/cma.j.issn.1671-0282.2025.01.022 |
| [3] | 杨桦, 韩鹏达, 朱蕗颖, 等. 灾害事故致命性大出血现场救治流程与规范[J]. 中华卫生应急电子杂志, 2024, 10(1): 52-56. DOI:10.3877/cma.j.issn.2095-9133.2024.01.010 |
| [4] | 彭驰, 杨帆, 高翔, 等. 不同机器学习模型预测严重创伤患者院内不良结局的效能比较[J]. 中华创伤杂志, 2023, 39(6): 545-550. DOI:10.3760/cma.j.cn501098-20230222-00096 |
| [5] | Liu NT, Salinas J. Machine learning for predicting outcomes in trauma[J]. Shock, 2017, 48(5): 504-510. DOI:10.1097/SHK.0000000000000898 |
| [6] | Huang S, Hu CC, Bell ML, et al. Regularized continuous-time Markov model via elastic net[J]. Biometrics, 2018, 74(3): 1045-1054. DOI:10.1111/biom.12868 |
| [7] | Valkenborg D, Rousseau AJ, Geubbelmans M, et al. Support vector machines[J]. Am J Orthod Dentofacial Orthop, 2023, 164(5): 754-757. DOI:10.1016/j.ajodo.2023.08.003 |
| [8] | Schober P, Vetter TR. Chi-square tests in medical research[J]. Anesth Analg, 2019, 129(5): 1193. DOI:10.1213/ANE.0000000000004410 |
| [9] | Dutta S, Datta S. A rank-sum test for clustered data when the number of subjects in a group within a cluster is informative[J]. Biometrics, 2016, 72(2): 432-440. DOI:10.1111/biom.12447 |
| [10] | Huang SJ, Cai NG, Pacheco PP, et al. Applications of support vector machine (SVM) learning in cancer genomics[J]. Cancer Genomics Proteomics, 2018, 15(1): 41-51. DOI:10.21873/cgp.20063 |
| [11] | Fong WJ, Tan HM, Garg R, et al. Comparing feature selection and machine learning approaches for predicting CYP2D6 methylation from genetic variation[J]. Front Neuroinform, 2024, 17: 1244336. DOI:10.3389/fninf.2023.1244336 |
| [12] | Karthik KV, Rajalingam A, Shivashankar M, et al. Recursive feature elimination-based biomarker identification for open neural tube defects[J]. Curr Genomics, 2022, 23(3): 195-206. DOI:10.2174/1389202923666220511162038 |
| [13] | Feng YL, Lv SG, Hang HY, et al. Kernelized elastic net regularization: generalization bounds, and sparse recovery[J]. Neural Comput, 2016, 28(3): 525-562. DOI:10.1162/NECO_a_00812 |
| [14] | Sanz H, Valim C, Vegas E, et al. SVM-RFE: selection and visualization of the most relevant features through non-linear kernels[J]. BMC Bioinformatics, 2018, 19(1): 432. DOI:10.1186/s12859-018-2451-4 |
| [15] | Vergara JR, Estévez PA. A review of feature selection methods based on mutual information[J]. Neural Comput Appl, 2014, 24(1): 175-186. DOI:10.1007/s00521-013-1368-0 |
| [16] | Ma MW, Liu RY, Wen CJ, et al. Predicting the molecular subtype of breast cancer and identifying interpretable imaging features using machine learning algorithms[J]. Eur Radiol, 2022, 32(3): 1652-1662. DOI:10.1007/s00330-021-08271-4 |
| [17] | Wright SJ. Coordinate descent algorithms[J]. Math Program, 2015, 151(1): 3-34. DOI:10.1007/s10107-015-0892-3 |
| [18] | Hao PY, Chiang JH, Chen YD. Possibilistic classification by support vector networks[J]. Neural Netw, 2022, 149: 40-56. DOI:10.1016/j.neunet.2022.02.007 |
| [19] | Wei PF, Vo TV, Qu XH, et al. Transfer kernel learning for multi-source transfer Gaussian process regression[J]. IEEE Trans Pattern Anal Mach Intell, 2023, 45(3): 3862-3876. DOI:10.1109/TPAMI.2022.3184696 |
| [20] | Jiang HJ, You ZH, Huang Y. Predicting drug-disease associations via sigmoid kernel-based convolutional neural networks[J]. J Transl Med, 2019, 17(1): 382. DOI:10.1186/s12967-019-2127-5 |
| [21] | Oh T, Kim D, Lee S, et al. Machine learning-based diagnosis and risk factor analysis of cardiocerebrovascular disease based on KNHANES[J]. Scientific reports, 2022, 12(1): 2250. DOI:10.1038/s41598-022-06333-1 |
| [22] | Gao Y, Cai G Y, Fang W, et al. Machine learning based early warning system enables accurate mortality risk prediction for COVID-19[J]. Nature communications, 2020, 11(1): 5033. DOI:10.1038/s41467-020-18684-2 |
2025, Vol. 34



