医学AI論文

【医学論文】AIを用いて新生児の術後死亡を予測する

みなさんこんにちは!日々機械学習を学ぶ外科医のさとうです。

今回はJournal of Pediatric Surgeryに2021年に掲載された新生児の術後死亡を予測する機械学習アルゴリズム構築に関する論文を一緒に勉強していきましょう。

今回紹介する論文はこちらです。

Pubmedで検索。

Google scholarで検索。

今回の論文

論文:Understanding risk factors for postoperative mortality in neonates based on explainable machine learning technology 

著者:  Yaoqin Hu et al.

雑誌: Journal of Pediatric Surgery 23 March 2021

AIを用いて新生児の術後死亡を予測する

<目的>

私たちは、説明可能な機械学習技術を導入して、臨床医が新生児術後死亡の危険因子をさまざまなレベルで把握できるようにすることを目指した。

 

<方法>

小児病院で2016年5月から2019年12月の間に行われた新生児手術1481件を本研究に組み入れた。手術中のバイタルサインを含む周術期の変数を収集し、術後死亡率の予測に用いた。広く使われているいくつかの機械学習の手法を学習し、分割したデータセットで評価した。最も優れた性能を示したモデルは、SHAP(SHapley Additive exPlanations)によって異なるレベルで説明された。

 

<結果>

検証セットでは,ランダムフォレストモデルのROC曲線下面積が0.72となり,最高の性能を達成した.SHAP社のTreeExplainerは、新生児の術後死亡のリスク要因を特定するのに使用した。説明可能な機械学習モデルは、従来の統計解析で特定されたリスク因子を説明するだけでなく、追加のリスク因子を特定した。また、SHAPによる様々なレベルの特徴の寄与度の可視化により、ブラックボックス化された機械学習モデルを臨床家や家族が容易に理解できるようになった。結果、手術中のバイタルサインが最終的な生存率に重要な役割を果たすことがわかった。

 

<結論>

説明可能な機械学習モデルは、新生児の外科手術による死亡率の予測に優れた性能を発揮しただけでなく、臨床医が各危険因子や個々の症例を理解するのに役立った。

 

<Purpose>

We aimed to introduce an explainable machine learning technology to help clinicians under- stand the risk factors for neonatal postoperative mortality at different levels.

 

<Methods>

A total of 1481 neonatal surgeries performed between May 2016 and December 2019 at a chil- dren’s hospital were included in this study. Perioperative variables, including vital signs during surgery, were collected and used to predict postoperative mortality. Several widely used machine learning meth- ods were trained and evaluated on split datasets. The model with the best performance was explained by SHAP (SHapley Additive exPlanations) at different levels.

 

<Results>

The random forest model achieved the best performance with an area under the receiver operating characteristic curve of 0.72 in the validation set. TreeExplainer of SHAP was used to identify the risk factors for neonatal postoperative mortality. The explainable machine learning model not only explains the risk factors identified by traditional statistical analysis but also identifies additional risk factors. The visualization of feature contributions at different levels by SHAP makes the “black-box”machine learning model easily understood by clinicians and families. Based on this explanation, vital signs during surgery play an important role in eventual survival.

 

<Conclusion>

The explainable machine learning model not only exhibited good performance in predicting neonatal surgical mortality but also helped clinicians understand each risk factor and each individual case.

さいごに

いかがでしたでしょうか。今回はAIを用いた小児外科領域の研究について一緒に勉強しました。

完全未経験から独学でプログラミング、Pythonを学んだ私の経験をこちらに紹介しています!

Twitterでも役立つ情報を配信していますのでよかったらフォローしてみてください!

では、また!

-医学AI論文

© 2024 医者がプログラミングで世界を変える Powered by AFFINGER5