人工知能(AI)は、医薬品研究および規制システムを大きく変革しています。創薬、臨床試験デザイン、市販後の医薬品安全性監視に至るまで、AI技術は従来のプロセスを再構築しつつあります。一方で、アルゴリズム・バイアス、データ品質、モデルの透明性といったAIに内在する不確実性は、規制当局にとって前例のない課題も提起しています。
世界の医薬品規制は、「技術への適応」から「体系的規制」へと移行しています。AIの医薬品領域への適用に対する全ライフサイクル・ガバナンス体制が構築されつつあり、縦割りの産業別政策を中核に、横断的なデータ・倫理フレームワークがこれを支える形となっています。
FDAは、世界のAI医薬品・医療機器規制における先駆者であることは疑いありません。その規制ロジックは、「探索的ガイダンス」から「制度的フレームワーク」への進化を反映しています。
FDAは2019年、「人工知能/機械学習(AI/ML)ベースの医療機器ソフトウェア(SaMD)の改修に関する提案規制フレームワーク(Proposed Regulatory Framework for Modifications to AI/ML-Based SaMD)」において、「事前特定変更管理計画(Pre-Specified Change Control Plan)」の概念を初めて提唱しました。この仕組みにより、製造販売業者は規制当局の承認前に、AIモデルの学習範囲および更新戦略を申告でき、管理された学習(controlled learning)を実現できます。続いてFDAは、MHRAおよびカナダ保健省(Health Canada)と協働し、2021年に「医療機器開発における適正機械学習実践(GMLP):指針原則(Good Machine Learning Practice for Medical Device Development: Guiding Principles)」を公表し、世界のAI医療機器審査における共通参照となりました。
これらの原則は、データの多様性、モデルの解釈可能性、性能モニタリング、臨床的再検証を重視し、AI医療製品に対する再現性・トレーサビリティを備えた審査基準を確立しています。
2024年、FDAはCDER内にAI Steering Committeeを設置し、医薬品の研究、審査、製造、医薬品安全性監視におけるAI活用を統括する体制を整備しました。同年に公表された「医薬品および生物製剤の規制意思決定を支援するための人工知能の使用に関する考慮事項(Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products)」では、規制当局自身がリスク同定や意思決定支援にAIを活用する方法が初めて提示されました。
2025年には、FDAはさらに重要な2つのドラフトガイダンスを公表しています:
AIモデルには、トレーサブルな学習データ、検証プロセス、性能評価メカニズムが求められます。
AIモデルの定期的な再検証およびリスク管理文書の整備が必要です。
FDAはAIを規制するだけでなく、積極的にAIを活用しています。
有害事象解析にAIを用いることで、副作用報告から潜在的シグナルを自動検出し、医薬品安全性アラートの効率を向上させています。
審査支援の自然言語処理モデルにより、審査官が添付文書や申請資料を迅速に解析できるよう支援します。
FRAMEプログラムでは、AIを先進製造技術の中核として位置付け、製造監督におけるインテリジェント品質管理および予知保全に活用しています。
米国のAI医療規制体系は、「技術ガイダンス」から「法制度フレームワーク」へと進化しており、高い適応性と部門横断的な連携を特徴とする規制パラダイムを示しています。
EUのAI規制は倫理とリスクを軸に、横断的アプローチと縦断的アプローチを組み合わせた包括的な体系を形成しています。
2024年に施行されるAI Actは、医療・医薬品関連のAIシステムを「高リスク」カテゴリーに分類しています。これは、関連製品が以下を満たす必要があることを意味します:
AI医療製品は医療機器と同等のコンプライアンス要件を満たす必要があります。製造業者はEUデータベースへの登録が求められ、ECHAおよびEMAによる共同監督の対象となります。
2024年、EMAは「医薬品ライフサイクルにおける人工知能(AI)の使用に関するリフレクションペーパー(Reflection Paper on the Use of Artificial Intelligence (AI) in the Medicinal Product Lifecycle)」を公表し、創薬・開発、製造、審査、市販後監視におけるAI適用原則を体系的に整理しました。
同文書は以下を強調しています:
さらにEMA内部では、「Scientific Explorer」AIシステムが文献検索および技術比較のレビューに導入され、規制業務の効率化が図られています。
EUはIMDRFやICMRAなどの多国間プラットフォームを通じて、AI規制の国際整合を積極的に推進しています。例えば、IMDRF枠組みにおけるAI医療機器用語の標準化に参画し、ICMRAの下で医薬品向けAIリスク評価手法の共同開発を促進しています。
EUの規制は「リスクレベル+倫理優先」を中核に、立法から運用までのクローズドループ型ガバナンス体制を形成しています。
MHRAは2024年からAI-Airlockの運用を開始し、規制管理下の環境で企業がリアルワールドデータ(RWD)を用いてAI医療機器を検証できるようにしました。このサンドボックス機構は、革新的企業の参入障壁を下げると同時に、規制当局がAI製品のリスクに関するデータを蓄積することにも寄与しています。併せてMHRAは「Digital Technology Group」を設置し、医薬品安全性監視および不正検知におけるAI活用を検討しています。
日本はAIヘルスケアを国家戦略「Society 5.0」に組み込んでいます。規制は主としてガイドラインおよび業界の自主規制に依拠しており、「人間中心のAI社会原則」や「AI/ML対応医療機器に関するガイドライン」などが例として挙げられます。
厚生労働省は、AI支援診断システムが医療機器に該当することを明確化し、アルゴリズム更新、検証頻度、医師の責任範囲の境界に関する要件を設定しています。
英国と日本はいずれも「イノベーション・フレンドリー」な規制モデルを採用し、管理された実証と動的評価により柔軟なマネジメントを実現しています。
中国のAI医療規制体系は、「先見的政策、標準主導、デジタル化監督」という特徴を示しています。
近年、国家薬品監督管理局(NMPA)は一連の重要政策を発出しています:
アルゴリズムのアノテーション、学習データ品質、モデル更新に関する要件を提示しています。
インテリジェント審査、遠隔監督、医薬品アラートを含む、医薬品規制におけるAIの典型的適用シナリオ15件を列挙しています。
アルゴリズム内容、データセキュリティ、倫理的境界を明確化しています。
これらの文書は、AI医療における「研究開発-登録-監督」をカバーする政策ループを形成しています。
中国はAI医療機器の標準体系構築を先導しています:
この一連の標準は、監督の技術的根拠を提供するだけでなく、企業に対するコンプライアンス指針としても機能します。
NMPAの医療機器技術審査センター(CMDE)により「AI医療機器イノベーション協力プラットフォーム」が設立され、企業、研究機関、規制専門家が集結し、アルゴリズム検証およびリアルワールドデータ活用研究を共同で推進しています。
同時に、規制当局自身も「インテリジェント審査」「スマート監督」システムの推進を進めており、承認審査プロセスおよびリスクモニタリングへのAI適用を目指しています。
中国は、「標準策定を優先し、政策で支え、デジタル監督を行う」ことを特徴とするAI医療ガバナンス体系を初期的に確立しており、国際標準との整合を段階的に進めています。
総じて、世界のAIヘルスケア規制は3つの主要トレンドを示しています。
AI医療製品は一般に高リスクカテゴリーに分類され、規制の重点は市販前承認から市販後監視へと拡大しています。
各国は企業に対し、学習データの出所、アルゴリズムのロジック、性能検証の開示を求めています。
各規制当局はAI支援審査およびモニタリングを活用し、「AIをAIで規制する」という目標の実現を図っています。
免責事項:上記内容は既存の公開情報に基づき取りまとめたものであり、参考情報として提供するものです。
Proregulationsは、FDA、EU EMA、NMPAなど世界の規制当局が公表する最新ガイダンスを継続的にモニタリングし、AIが医薬品および医療機器にもたらす固有の規制・コンプライアンス課題を深く分析しています。当社は、アルゴリズム設計、製品開発、臨床的検証、市販後監視に至るまで、クライアント製品の全ライフサイクルに先見的なコンプライアンス要件をシームレスに統合することに注力しています。
Proregulationsは、グローバルな規制動向の監視と審査の方向性予測に長けており、顧客に対して専門的かつ迅速な対応と戦略的支援を提供し、革新的製品が常にターゲット市場の規制要件を満たすよう支援します。当社サービスにご関心がございましたら、お問い合わせください。
関連サービス