肺炎は毎年100万人の成人アメリカ人を病院に入れ、50, 000人を殺します。 医師が患者に肺炎があると疑っている場合、一般的に胸部X線を注文します。 もちろん、これらのX線は医師によって解釈されなければなりません。 しかし今、スタンフォード大学の研究者は、経験豊富な放射線科医よりも優れたX線肺炎診断のアルゴリズムを開発しました。
「アルゴリズムの利点は、数十万の胸部X線と他の専門家からの対応する診断から学習できることです」と、研究を共同主導したスタンフォードマシンラーニンググループの大学院生であるPranav Rajpurkar氏は言います。 「放射線科医が他の何十万人もの放射線科医の診断から学び、それらの診断につながる画像のパターンを見つける機会を得るのはいつですか?」
CheXNetと呼ばれるアルゴリズムは、肺気腫や気胸(肺と胸壁の間に閉じ込められた空気)を含む13のその他の病状も診断できます。 チームは、国立衛生研究所(NIH)の公開データセットを使用してアルゴリズムを構築しました。NIHには、14の可能な条件がラベル付けされた100, 000枚以上の胸部X線画像が含まれていました。 データセットは初期診断アルゴリズムとともにリリースされ、NIHは他の研究者に前進を促しました。
Rajpurkarと彼の仲間のMachine Learning Groupのメンバーは、挑戦することにしました。 研究者は、4つのスタンフォード放射線科医に、420枚の画像に肺炎の可能性のある徴候を記録させました。 このデータを使用して、1週間以内に10の状態を正確に診断できるアルゴリズムを作成しました。 1か月以内に、このアルゴリズムは、14のすべての条件を診断する際に、以前のアルゴリズムを上回る可能性がありました。 この時点で、CheXNetの診断は、一人の放射線科医の個々の意見よりも多くの場合、放射線科医の多数意見に同意しました。
この研究は今月、科学的プレプリントWebサイトarXivで公開されました。
他の診断アルゴリズムが最近ニュースになりました。 カナダとイタリアのチームは両方とも、脳スキャンからアルツハイマー病を診断するためのアルゴリズムを開発しました。 病気を特徴付ける脳内のプラークの分布は肉眼では微妙ですが、研究者はAI技術が異常なパターンを検出できると言います。 Rajpurkarとスタンフォードの機械学習グループの仲間の研究者は、不整脈を診断し、ウェアラブル心臓モニターからの数時間のデータを分析するアルゴリズムも開発しました。 NIHデータから他の肺炎アルゴリズムが開発されましたが、これまでのところスタンフォードの肺炎アルゴリズムが最も正確です。
CheXNetは、経験豊富な放射線科医に簡単にアクセスできない場所で特に役立ちます、とチームは言います。 また、ある種のトリアージとしても役立ち、どのケースが緊急の注意を必要とする可能性が高いケースとそうでないケースを特定します。 チームはまた、X線で肺炎の可能性のある指標のマップを作成するツールを開発し、医師に便利な視覚的ガイドを提供しました。
チームはCheXNetの診断能力について楽観的ですが、CheXNetの限界については慎重です。
「AIは強力なツールですが、長年の経験とそれをどのように使うかを直観するのに多くの困難な時間を要します。そして、最もポジティブなインパクトのためにどこでそれを使用できるかを決定するのは同じくらい難しいです」とラージプルカーは言います。
開発中のディープラーニングアルゴリズムは数多くありますが、実際の患者で使用するために必要な厳密なテストと承認プロセスを経たものはまだありません。
シカゴ大学放射線学部の放射線学教授兼副学長であるポール・チャンは、CheXNetおよび同様のディープラーニングプログラムについて懐疑的な意見を述べています。 医師はすでにアルゴリズムを使用して、さまざまな状態の診断を支援しています、とChang氏は言います。 これらのアルゴリズムは、状態がどのように見えるかについての事前に作成されたモデルに依存しています。たとえば、癌は良性の腫瘤よりも大きくて刺激的です。 対照的に、ディープラーニングプログラムは、膨大な量のデータを処理することにより、それ自体で重要な機能を把握することを目的としています。 しかし、これは、彼らが間違った手がかりを得ることができることも意味します。 Changは、さまざまな種類のX線(手、足、マンモグラム)の違いを学習した深層学習アルゴリズムの例を示します。 しかし、研究者は、メイン画像が中央ではなくフィルムの側面にあるという事実によってプログラムがマンモグラムを認識することを単に学んだことを発見しました(胸は胸壁に取り付けられているため、乳房のフィルムの端に表示されますマンモグラム画像。対照的に、手または足はX線の中央に表示されます。 アルゴリズムは、乳房に関する重要なことは何も学んでおらず、画面上での乳房の位置だけを学びました。
「これは非常に早い時期です」と、CheXNetの結果がピアレビューされていないことを指摘するチャンは言います。 「深層学習は大きな可能性を秘めていますが、医学と放射線医学では、誇大広告のサイクルの初期段階にいる傾向がありますが、採用には時間がかかります。 適切に消費する方法を学びます。」