医療はどこへ向かうのか ー世界の医療で起きている「5つのトレンド」

はじめに
医療AIの話題は数年前から続いている。しかし2025年後半から2026年にかけて、世界の医療で起きている変化は、単なる「技術導入」では説明できない段階に入った。
それは、医療の役割分担そのもの―「誰が判断し、誰が責任を持つのか」が変わり始めている点ではないだろうか。
以下では、ここ数ヶ月の国際報道・研究・規制動向から確認できる変化を、5つのトレンドとして整理する。
これらは基本的には、メディアなどの報道、研究結果、規制当局の発表などの事実情報をベースにしている。
トレンド1: AIが「医療プロセス」に入り始めた
手術室で起きた事故
最も象徴的なのは、AIの手術支援システムに関する調査報道である。
2025年後半、ProPublicaなどの調査報道機関が、AIナビゲーションを用いた手術に関連する重大事故を報告した。
頭蓋損傷、脳脊髄液漏れ、脳卒中などの深刻な合併症が複数のケースで確認されている。
注目すべきは、医療機器そのものが物理的に誤作動したわけではない点だ。
むしろ、
AIの提示した情報が医師の判断に影響を与え、その結果として重大事故 が生じた可能性
が指摘されている。
つまり、AIは手術を行ったわけではない。それでも臨床結果に関与した。
この事実が意味するのは、AIはもはや単なる「参考意見」や「補助ツール」ではなく、臨床意思決定の一部として機能し始めているということだ。
医師がAIの提示を「最終判断の材料」として採用する以上、AIは事実上、医療プロセスの一部になっている。
AI医療機器の爆発的増加
この背景には、AI医療機器の急増がある。
米国FDAのデータによれば、AI/機械学習ベースの医療機器として承認されたものは、2024年末時点で1,000件を超えた。その用途は放射線画像診断、眼科(糖尿病性網膜症スクリーニング)、心臓(不整脈検出)、神経(脳卒中検出)など、多岐にわたる。
特に放射線領域では、肺結節検出、乳がんスクリーニング、脳出血検出など、複数のAIシステムが日常診療に組み込まれている。これらは「医師の判断を助ける」という名目で導入されているが、実際には医師がAIの判定を覆すケースは少ないとされる。
Nature Medicine誌に掲載された研究では、放射線科医がAI支援下で診断を行った場合、AIの判定に同調する傾向が強く、特に経験の浅い医師ほどその傾向が顕著だったと報告されている。
医療構造の転換点
つまり、以下の転換点にあると言える。
従来の構造:
- 医師が知識と経験に基づいて判断する
- 機械(検査機器、手術器具)は医師の指示通りに動く
- 責任の所在は明確(医師→病院→保険)
新しい構造:
- アルゴリズムが判断に参加する
- 医師はAIの提案を「確認」する立場になる
- 責任の所在が曖昧になる(医師? AI開発企業? 病院?)
この変化は、医療の法的・倫理的枠組みそのものを揺るがしていると言える。
トレンド2: 医師が「診断者」から「監督者」へ
AIの診断能力
AIの診断能力に関する研究は、驚くべき結果を示し始めている。
JAMA誌に掲載された研究では、GPT-4などの大規模言語モデル(LLM)を用いた仮想救急診療シミュレーションにおいて、AIの診断一致率が80%を超え、治療方針の一致率はほぼ100%に達したと報告されている。
これは単なる「クイズの正解率」ではない。実際の救急症例を模した複雑な臨床シナリオにおいて、
AIが経験豊富な救急医と同等以上の判断を下せる
ことを示している。
別の研究では、AIによる皮膚科診断の精度が、専門医の診断精度と統計的に有意な差がないレベルに達したことが報告されている。特に、メラノーマ(悪性黒色腫)の検出では、AIの方が偽陰性率(見逃し)が低かったという。
AIの致命的な弱点
一方で、AIの限界も明らかになってきた。
Nature誌に掲載された研究では、医療AIは
権威ある情報源からの誤った情報を、より強く信じてしまう
傾向があることが確認された。
つまり、医師の診療記録や権威ある医学文献に誤りが含まれていた場合、AIはその誤りを「正しい知識」として学習し、誤診につながる可能性がある。
さらに、AIは文脈、背景などの理解に弱い。
患者の社会的背景、家族歴、生活環境といった「データ化されていない情報」を適切に評価することが難しい。これらは診断において極めて重要な要素だが、AIが最も苦手とする領域である。
相互監視の必要性
この2つの事実―AIの高い診断能力と、その脆弱性―が示すのは、
AIは医師を代替するのではなく、相互監視関係を生むという点ではないか。
従来の構造:
- 医師 → 診断 → 治療
- 上級医が下級医をチェック
- 責任は医師が負う
現在の構造:
- AIが提案 → 医師が確認 → AIを再評価
- 医師がAIをチェックし、AIが医師の見落としをチェック
- 責任の所在が不明確
The Lancet Digital Health誌の論説では、この状況を
「医師は知識の提供者ではなく、アルゴリズムの安全性を担保する役割(Clinical Algorithm Supervisor=臨床監督者)へと移行しつつある」
と表現している。責任がさらに重大になるため、安易に間違った知識を提案できなくなっている。
実際、いくつかの医療機関では、「AI判定と医師判定が食い違った場合の対応プロトコル」の策定が始まっている。これは従来の医療には存在しなかった概念である。
トレンド3: 治療は「薬・手術」から「ソフトウェア」へ
デジタル治療(DTx)
医療のもう一つの根本的な変化は、
デジタル治療(Digital Therapeutics, DTx)の拡大
である。
これは単なる「健康アプリ」ではない。規制当局の承認を受け、医師が処方し、保険適用される治療法である。
米国FDAは2020年以降、複数のDTxを承認している。その対象疾患は次のとおりだ:
- 糖尿病(血糖管理アプリ)
- 高血圧(生活習慣改善プログラム)
- 物質依存症(認知行動療法アプリ)
- 不眠症(CBT-Iアプリ)
- COPD(慢性閉塞性肺疾患)の呼吸リハビリテーション
2025年後半には、欧州でも同様の動きが加速している。ドイツでは「DiGA(Digital Health Applications)」として、公的医療保険の償還対象にDTxを含める制度が確立された。
ソフトウェアによる治療へ
この変化の意味は極めて大きい。
従来、治療とは「物質(薬)」または「物理的介入(手術・処置)」を意味した。しかしDTxは、
アルゴリズム(ソフトウェア)による治療
である。
薬は製薬企業の領域だった。
しかしソフトウェアはIT企業の領域である。
実際、Apple、Google、Amazonなどのテック企業が医療市場に参入し、DTxの開発に投資を始めている。
JAMA Network Open誌に掲載された経済分析では、DTx市場は2030年までに年間成長率20%以上で拡大し、従来の製薬市場の一部を置き換える可能性が指摘されている。
さらに重要なのは、ソフトウェアは「更新」できる点だ。薬は一度製造されれば変えられないが、アプリはアップデートできる。これは治療の概念を根本的に変える。
British Medical Journal(BMJ)の論説では、「治療が『製品』から『サービス』へと変わる」と表現されている。医師は薬を処方するのではなく、継続的に最適化されるアルゴリズムへのアクセス権を処方することになる。
トレンド4: 医療機関外での診断
ウェアラブル機器が変えた医療
患者の行動も劇的に変化している。
Apple Watch、Fitbit、Oura Ringなどのウェアラブル機器は、もはや単なる「健康管理ガジェット」ではない。
これらのデバイスは、心電図(ECG)測定、血中酸素濃度(SpO2)モニタリング、睡眠ステージ分析、心拍変動解析など、従来は医療機関でしか測定できなかった生体情報を、24時間365日、日常生活の中で記録し続けている。
特に注目すべきものの1つが、Apple Watchの心房細動検出機能である。
New England Journal of Medicine誌に掲載された大規模研究(Apple Heart Study)では、40万人以上の参加者のうち、0.5%が心房細動の疑いありと通知を受け、その後の医療機関での確認で実際に心房細動と診断された割合は84%に達した。
これは何を意味するだろうか。
患者は病院に行く前に、すでに「自分の心臓に異常がある可能性」を知っている。
医療の入口が、病院の診察室から、自宅のスマートフォンに移動
しているのである。
AIに相談する時代
さらに驚くべき変化がある。
Pew Research Centerの2025年調査によれば、米国の成人の約40%が、健康に関する相談をAI(ChatGPTなどのLLM)に行った経験があると回答した。特に18-29歳の若年層では、その割合は60%を超える。
患者の行動パターンが変わった:
従来: 症状が出る → 医療機関に相談 → 診断 → 治療
現在: 症状が出る → AIに相談 → ウェアラブルで確認 → 医療機関に受診(またはしない)
The Lancet誌の論説では、この変化を「医療の脱中心化(Decentralization of Healthcare)」と呼んでいる。
病院は「最初の相談窓口」ではなく、確認と治療を行う専門施設に変わりつつある。
医療制度への影響
この変化は医療制度に大きな影響を与える。
従来、医療機関は「情報の非対称性」によって成立していた。患者は自分の症状を理解できず、医師が専門知識を提供する。しかし今、患者はAIとウェアラブル機器によって、受診前にかなりの情報を持っている。
JAMA誌の論文では、この状況を「Informed Patient Phenomenon(情報武装した患者現象)」と表現し、医師-患者関係の再定義が必要だと指摘している。
トレンド5: 規制は「承認」から「監視」へ
欧州AI規制法が示す新しい方向性
最後に、最も重要な変化が規制である。
2024年に成立した欧州AI規制法(EU AI Act)は、医療AIを「高リスクAI」に分類し、厳格な規制対象とした。
その要求事項には次のようなものが含まれる:
- アルゴリズムの透明性(説明可能性)
- 訓練データの品質保証と偏り(バイアス)の評価
- 継続的なリスク管理体制
- 市販後の性能監視(Post-Market Surveillance)
特に注目すべきは最後の項目である。
従来の医療機器規制は、「発売前の安全性確認」が中心だった。規制当局が審査し、承認されれば市場に出る。その後の監視は限定的だった。
しかしAIは違う。AIは学習し続ける。承認時点の性能が、使用開始後も維持されるとは限らない。訓練データと実臨床データが異なれば、性能は劣化する。また、データ分布の変化(例:新しい疾患の出現、人口構成の変化)によって、AIの判断精度は変動する。
「完成品」ではなく「運用システム」
Nature Machine Intelligence誌の論文では、承認済AI医療機器の大半が、長期的な性能監視体制を持っていないことが指摘されている。つまり、承認後にAIの性能が劣化しても、それを検出する仕組みがない。
この問題に対応するため、米国FDA は2023年以降、「AI/ML-Based Software as a Medical Device(SaMD) Action Plan」を推進している。その核心は、市販後の継続的監視を義務化することにある。
これは医療規制の思想そのものの変化を意味する。
従来の考え方: 医療機器は「完成品」である → 承認時に安全性を確認すれば良い
新しい考え方: AIは「運用されながら変化するシステム」である → 使用後の継続的評価が不可欠
The Lancet誌の論説では、「医療AIの規制は、航空機の安全管理に似るべきだ」と指摘している。航空機は製造時だけでなく、運用中も継続的に検査され、メンテナンスされる。医療AIも同様であるべきだという主張である。
規制当局の役割の変化
この変化により、規制当局の役割も変わる。
従来は「門番(Gatekeeper)」――市場に出るものを選別する役割だった。
今後は「監視者(Monitor)」――市場に出た後も継続的に評価し、必要に応じて介入する役割に変わる。
これは規制当局にとって、人的リソース、技術的能力、法的権限のすべてにおいて、大きな挑戦である。
まとめ: 医療の構造変化が始まった
5つの変化の本質
ここ数ヶ月の医療の変化を整理すると、次の5点に集約される。
- AIが臨床判断に参加した
- 単なる補助ツールから、意思決定の構成要素へ
- 医師の判断に影響を与え、臨床結果を左右する存在に
- 医師はアルゴリズムの監督者になり始めた
- 診断者から、AIの安全性を担保する役割へ
- 相互監視という新しい関係の構築
- 治療の一部がソフトウェア化した
- 物質(薬)から情報(アルゴリズム)へ
- 製薬企業とIT企業の境界が曖昧に
- 診断の入口が病院の外に移動した
- ウェアラブル機器とAIによる「自己診断」の普及
- 病院は確認と治療の場へ
- 規制が承認中心から監視中心へ変わった
- 「完成品」から「運用システム」へ
- 市販後の継続的評価が新しい標準に
「非中央集権型モデル」へ
これらは個別のニュースではない。医療の構造が「中央集権型(病院などの専門機関中心)」から「非中央集権型(分散型知ネットワーク)」へ移行しているとも言える。
これまでの医療:
- 知識は医師に集中
- 判断は医師が行う
- 患者は受動的
- 規制は承認時に完結
これからの医療:
- 知識は分散(AI、医師、患者デバイス、データベース)
- 判断は複数の主体が関与
- 患者は能動的
- 規制は継続的監視
医療は長らく、専門家の判断が最終権威とされてきた。
しかし現在、診断はAI、確認は医師、管理は規制当局、観測は患者デバイスという、分散型のシステムへと変わり始めている。
医療AIの進歩とは、技術の話ではない。
それは、医療という社会制度の再設計が始まったことを意味している。
過去の記事:
参考情報源
本記事は以下の情報源に基づいています:
- ProPublica調査報道(2025):AI手術支援システムに関する事故報告
- FDA AI/ML Medical Device Database(2024更新)
- Nature Medicine誌:放射線科医のAI依存傾向に関する研究(2025)
- JAMA誌:LLMによる救急診療シミュレーション研究(2025)
- Nature誌:医療AIの情報源バイアスに関する研究(2025)
- The Lancet Digital Health誌:医師の役割変化に関する論説(2025)
- JAMA Network Open誌:DTx市場分析(2025)
- New England Journal of Medicine誌:Apple Heart Study(2019-継続中)
- Pew Research Center:米国成人の健康AI利用調査(2025)
- 欧州AI規制法(EU AI Act, 2024施行)
- FDA AI/ML-Based SaMD Action Plan(2023-)
- Nature Machine Intelligence誌:AI医療機器の市販後監視に関する論文(2025)
- British Medical Journal(BMJ):デジタル治療に関する論説(2025)
- The Lancet誌:医療の脱中心化および規制に関する論説(2025)


