グルーヴノーツと東京大学、マルチモーダルAIにより超音波検査画像と診療情報を統合した高精度な疾患画像判別モデル開発

グルーヴノーツと東京大学、マルチモーダル深層学習により超音波検査画像と診療情報を統合した高精度な疾患画像判別モデル開発

AIと量子コンピューターを活用できるクラウドプラットフォーム「MAGELLAN BLOCKS」(マゼランブロックス)を開発するグルーヴノーツは1月7日、東京大学医学部付属病院と共同で、人工知能を用いた医療画像と診療情報の統合による高精度な疾患画像判別モデルを開発した。同日付けで、学術誌「Journal of Gastroenterology and Hepatology」において論文を発表した。

研究グループが開発したのは、腹部超音波検査画像と診療情報をAIで統合した、肝腫瘤を判別するためのモデル。これまでの画像診断モデルは画像のみを学習させていたが、そこに診療情報を統合することで飛躍的に精度が向上するという。

肝腫瘤の早期発見で広く用いられているのは、腹部超音波検査だ。しかし、良性か悪性かを判断するには、CTやMRIで血流の状態を見る、つまり「質的な診断」を行う必要がある。研究グループは、画像と数値などの異なる種類のデータを同時に学習できるマルチモーダル深層学習(マルチモーダルAI)を用いて超音波画像診断と診療情報を統合することで、新しい肝腫瘤の疾患画像判別モデルを開発した。これを使えば、腹部超音波検査だけで質的な診断が可能になり、CTやMRIの放射線被曝のリスク回避や費用の削減にもつながる。

研究グループは、2016年4月から2018年11月までに東京大学医学部附属病院で腹部超音波検査を受けて肝腫瘤が発見された1080例(悪性腫瘍548例、良性腫瘍532例)に対して、グルーヴノーツのMAGELLAN BLOCKSでマルチモーダル深層学習を用いた判別モデルの作成と精度の評価を行った。

その結果、超音波検査のみに比べて、超音波検査に患者背景情報、肝臓の炎症情報、肝臓の繊維化情報、アルブミンの情報を統合したモデルでは、AUROC値が0.994(1に近いほど正確)と非常に高い精度が示された(ちなみに超音波のみの場合は0.721)。AUROC値はThe area under the receiver operating characteristic curve(ROC曲線下面積)の略で、判別モデルの性能を評価する指標の1つ。

超音波画像のみのモデル(左図)、マルチモーダル深層学習を用いて超音波画像に診療情報を統合したモデル(右図)の診断精度を示したROC曲線。この曲線の下の面積(青色部分)が大きいほど診断精度がいいということになる。診療情報を統合したモデル(右図)では、左上の欠けた部分が少ない良好な診断精度を示した

超音波画像のみのモデル(左図)、マルチモーダル深層学習を用いて超音波画像に診療情報を統合したモデル(右図)の診断精度を示したROC曲線。この曲線の下の面積(青色部分)が大きいほど診断精度がいいということになる。診療情報を統合したモデル(右図)では、左上の欠けた部分が少ない良好な診断精度を示した

こうした学習モデルでは、サンプル数が多いほど正確な判別が可能になるが、医学研究では患者の同意取得や倫理的な問題もあって大量の患者サンプルを入手することが難しい。しかし今回の研究で、マルチモーダル深層学習を使えば大変に高い精度での判別が可能になることがわかった。この手法は、他分野への応用も期待されるとのことだ。

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。