GxP Lifeline

プログラム医療機器におけるAI規制の小さなステップ


Med Device Quality Trends

医療におけるAI(人口知能)のポテンシャルは驚くほど高まっています。医療機器に関して言えば、最も一般的なAIの姿は、インプットに基づいてアルゴリズムが学習するML(機械学習)です。その好例が最近承認されたプログラム医療機器(software as a medical device:SaMD)で、これは医師による前立腺癌の特定を支援するものです。 ここでのキーワードは “支援”です。医療器具に搭載されたAI/MLのユーザーは、主に医師を補助する役割を担います。他方、薬事規制当局は、人の健康を完全に制御することをアルゴリズムに委ねることをためらっているように見えます。

薬事規制当局はまた、AI/MLを搭載したプログラム医療機器(SaMD)に対して規制を打ち出すことを躊躇しているように見えます。しかし、公平のためにいうと、FDA(米国食品医薬品局)は、「AI/MLを搭載したプログラム医療機器(SaMD)の監督に関するFDAの行動計画(Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan)を既に策定しており、関係者から様々なフィードバックを得つつあります。その間に、FDA、カナダ保健省および英国医薬品医療製品規制庁は、医療機器における機械学習のGMLP(適正基準)への指針となる原則を公表しました。この原則と他の規制文書は、今後の薬事規制がどのようなものになるかを医療機器関連の企業に指し示すことができるものとなっています。

重要なのは、データおよびデータの完全性

上記の原則に関する限り、主な懸念はデータセットに関係しています。こうした原則の一つは、データセットが目的とする患者集団を確実に代表することを特に要求しています。データの正確性は、データの完全性に関する基本原則に依存します。アリゴリズムがどの程度訓練されるかはデータによって決まるため、データが正確なAIの基盤となります。理論上、データには偏りがあってはならず、他のタイプの分析にエラーを生じさせる可能性がある人間の弱点にデータが容易に影響されることがあってはなりません。しかし、残念ながら、実際には常にそうならないとは言えず、人による偏見がAIのエラーを誘発する場合、この偏りはアルゴリズムの正確性を損ねてしまいます。

データの偏りと闘うことは正確なAIを保証するうえで極めて重要となります。このことは、医療機器や健康をもたらす他のアプリケーションにおいて特に重要です。データの偏りを取り除く試みの一部には、AIを開発するために多様なメンバーから成るチームを活用することが含まれます。MicrosoftのNational Director、US Provider担当でChief Nursing OfficerでもあるMolly K. McCarthy(経営学修士、看護学士、正看護師(BC)は、「公平性を高め、多様性を一層受け入れていくためには、技術者、開発者およびプログラマーが多様性を受容するよう行動するだけでなく、チームが様々な経験を有し多様なバックグラウンドを持つ人々から構成されるようになっていなければなりません」と提言しています。

人の重要性

前述の機械学習のGMLPの指針となる原則から派生するもう一つのテーマは、薬事規制当局が “人とAIのチーム”と呼ぶものです。アルゴリズムが人を介さず単独で動くのが一つの作動状態ですが、アルゴリズムが現実の条件の下で人によって使われるときの作動状態がそれと同じになるとは限りません。現実の条件下でのテストは別にして、AIについて言えば、人は依然として究極の意思決定者となるでしょう。AIで稼働するSaMDは医師に代わって意思決定を行うものではなく、医師が利用できるもう一つのツールという位置づけになるでしょう。

AIが人の介入なしに医療上の意思決定を下すにはまだ早すぎます。常に変化するAIの性質と変更管理に係わる薬事規制のため、そうした事態はまだこないでしょう。前述の“AI/MLを搭載したプログラム医療機器の監督に関するFDAの行動計画”*⁴は、変更管理計画が予め策定されることに言及しています。まだ理論上の要求事項に留まってはいるものの、これは予想される修正を制御されたやり方で許容するものとなるでしょう。このFDAの行動計画の背景にある考え方は、AI は改善され益々利用されるようになるでしょうが、FDAとしては依然として安全性と有効性の保証を求めていくというものです。すなわち、規制当局としては、AIのポテンシャルとその固有のリスクの間のバランスをとることを図っているのです。

結 論

AIはあらゆるセクターに影響を及ぼしており、市場に継続的に提供されて医療を改善することとなる、新たな医療機器のカテゴリーを生み出しつつあります。AIは有用である一方で、それ自身が困難な課題を抱えています。この新たな機会を活用したいと考える医療機器会社は、自身の機器において責任を持ってAIを取り扱う方法と、薬事規制当局が想定している規制内容を把握しておく必要があります。

AIで稼働するSaMDは医療機器における唯一の現状破壊的トレンドではありません。こうしたトレンドについてさらに知り、他のトレンドも見てみたいと思う方は、私たちのTrend Briefをダウンロードしてください。


参 照:
  1. FDA Authorizes Software that Can Help Identify Prostate Cancer,” U.S. Food and Drug Administration, Sept. 21, 2021.
  2. Good Machine Learning Practice for Medical Device Development: Guiding Principles,” U.S. Food and Drug Administration, Oct. 27, 2021.
  3. Artificial Intelligence in Health: Ethical Considerations for Research and Practice,” Molly K. McCarthy, HIMSS, June 17, 2019.
  4. Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan” U.S. Food and Drug Administration, Jan. 2021.

2019-bl-author-sarah-beale

Sarah Bealsは、ユタ州ソルトレイク市にあるMasterControl本社のコンテンツマーケティングのスペシャリストです。彼女は本社で白書やウエッブページを作成し、会社のブログであるGxP Lifelineに頻繁に寄稿しています。過去5年間、Bealeはライスサイエンスおよび医療について評論してきました。MasterControに入社する前に、彼女はソルトレイク市にある栄養補助製品の会社に勤め、その前はシカゴにある第三者医療管理団体に勤めていました。Bealsはブリガムヤング大学で英語の学士号を取得し、デヴリ大学で経営学の修士号を取得しています。


[ { "key": "fid#1", "value": ["GxP Lifeline Blog"] } ]