承認件数の現状——1,356件の内訳と「放射線科独占」
米食品医薬品局(FDA)がAI対応医療機器の最新リストを更新した。累計の承認・認可件数は1,356件に達し、前回報告から8.5%増加した。しかしその中身を見ると、驚くべき偏在がある。1,356件のうち1,039件——全体の約77%——が放射線科向けAIツールだ。CT、MRI、X線、マンモグラフィの読影支援が、AI医療機器市場の大部分を占めている。
なぜ放射線科に集中するのか。理由は明快だ。医療画像は「入力(画像)→出力(所見・診断補助)」という構造がシンプルで、AIモデルの性能を定量評価しやすい。また、放射線科医は世界的に不足しており、AIが読影を補助することで診断待ち時間を短縮できる需要が高い。FDAも1998年からAI医療機器のトラッキングを開始しており、放射線科AIは最も長い承認実績を持つ分野でもある。
具体的な承認例としては、肺がんスクリーニング用CT解析AI、乳がんマンモグラフィ解析AI、脳卒中診断を補助する脳MRI解析AIなどがある。これらは放射線科医の見落としリスクを低減し、緊急性の高い症例のトリアージを自動化するツールとして実用化されている。
LLM医療機器はなぜ未承認なのか
1,356件の承認の中に、ChatGPTやClaudeのような大規模言語モデル(LLM)ベースの医療機器は1件もない。FDAはこれまでにLLMベースの医療機器を承認していない——これは重要な事実だ。なぜか。
LLMは「確定的」ではなく「確率的」に動作する。同じ入力でも異なる出力を返す可能性があり、医療機器に求められる再現性・一貫性の基準を満たすことが難しい。また、LLMは「ハルシネーション(幻覚)」——事実と異なる情報を自信を持って出力する問題——を抱えており、医療診断での誤出力は患者安全に直結するリスクがある。
FDAは現在、AI医療機器に関する規制ガイダンスを継続的に更新している。2026年にはQuality Management System Regulation(QMSR)改訂により、米国の医療機器規制が国際標準(ISO 13485:2016)と整合化される見込みだ。これはAI医療機器の国際展開を容易にする一方で、承認プロセスの複雑さが増す可能性もある。
AI診断の「信頼問題」と規制の役割
Deep Signalでは以前、Quinnipiac大学の調査結果として「AIツールの利用率が上昇するほど信頼度が低下する」という「AI信頼の逆説」を報じた。医療分野でこの逆説はより深刻だ。医療AIが広く使われるほど、誤診・偏り・ブラックボックス問題への懸念が高まり、患者と臨床医の信頼が揺らぐという構造がある。
規制承認はその信頼の担保として機能するはずだが、現状ではFDA承認済みであっても「なぜその判断をしたか」を説明できないAIツールが大多数だ。放射線科AIのほとんどは「検出精度」で評価されており、「どの特徴に注目して判断したか」の説明可能性(Explainability)は必須要件になっていない。
また、科学研究でのLLM活用に関する実践ガイドでも指摘されているように、AIシステムの「オープン性」——アーキテクチャ、学習データ、評価方法の透明性——は医療AIの信頼性にも直結する。クローズドなAI医療機器は、承認を受けていても再現性の検証が困難であり、長期的な信頼構築には課題を残す。
日本の規制状況と国際比較
日本では薬機法の改正により、AIを活用したプログラム医療機器(SaMD)の承認手続きが整備されてきた。PMDA(医薬品医療機器総合機構)は承認件数をFDAほど公開していないが、AI医療機器の申請・承認は増加傾向にある。EUでは2025年から段階的に適用が始まっているEU AI Actにより、医療AIは「高リスクAIシステム」として厳格な要件が課される見込みだ。
米国・EU・日本でそれぞれ異なる規制フレームワークが進化しており、医療AI企業はマルチ規制対応が必須となっている。2026年のQMSR改訂は国際整合化の一歩だが、LLMをどう規制するかというより本質的な問いは、各国当局がまだ答えを模索している段階だ。
今後の展望
FDAのAI医療機器承認は今後も増加するが、「放射線科の壁」を超えて病理、皮膚科、眼科、そして内科的診断へと拡大できるかが焦点となる。LLMの医療応用については、まずは「診断補助」ではなく「患者教育」「記録作成支援」などより低リスクな用途から承認が進む可能性が高い。
承認件数の増加は確かに進歩だが、「何が承認されているか」よりも「何が承認されていないか」を見る方が現状を正確に理解できる。1,356件中にLLMがゼロという事実は、AI医療の可能性と規制現実の間にある大きなギャップを示している。



