わたくし現在「2015 ノーベル生理学医学賞 受賞された大村 智博士所属の大学病院」に入院しオーバーホール中です。大学病院は地域医療の中核、医療人材育成機関としての使命また先端的医療の推進が大きな目的となっています。現在AIの使用に関して、各方面で様々な議論が行われています。今日は医療現場での使用に関する記事をご紹介致します。近年、医療現場においてエックス線写真やCT、MRIなどの画像を解析し、特定の病気や損傷を判定する人工知能(AI)を活用した医療機器の導入が進んでいます。日本国内では、2022年11月までに24種の人工知能を活用した医療機器の製造販売が承認されており、肺炎やがんの患部、骨折箇所などを検出する機能が含まれています。
これらの医療機器は主に医師の診療を補助する役割を果たすものですが、更には患者からの質問に答えたり、診断や治療の方針を示すAIも開発されています。このような技術は、チャットGPTのような自然言語処理技術を医療に応用したもので、ある研究によれば、AIの回答が医師による回答よりも適切であると評価される場合もあります。しかしながら、将来的には人工知能が医師の代わりに診療を行う可能性が浮上してきます。この点について、人間の生命と健康に影響を及ぼす医療行為をどこまでAIに任せてよいかという倫理的な問題が提起されています。フランスでは、こうした課題に早くから取り組み、医療における人工知能の活用に関する基本原則を示す報告書が議会から提出されました。この報告書には以下の2つの原則が盛り込まれています。
1. 人間の関与の必要性
人工知能が医療情報を取得する際には、必ず人間が関与する必要があります。医療情報はプライバシーに関わる重要な情報であるため、情報の収集において人間の監視が必要です。また、患者側もいつでも人間の医療者に説明を求めることができる状況を提供すべきです。
2. 理解と説明の必要性
医療者は、人工知能がどのようにして診断や治療方針を判断したのかを理解しておく必要があります。設計・開発者は医療者に対して、人工知能の動作原理やプログラムについて説明可能であるべきです。医療者の責任を明確にするため、この点は法的にも義務化されています。
これにより、人工知能を医療に活用する際には、人間の関与と理解が基本とされ、医療の質と安全性を確保するための枠組みが提供されています。フランスの制度では、医療情報の収集やAIの使用目的について広報が行われ、利用を望まない場合には拒否する機会も提供されています。
また、人工知能による診断や治療において、誤りや事故が生じた場合の責任問題についても考慮されています。瑕疵のあるAIプログラムに対しては開発者の責任が問われ、医師の責任は医療行為に関する過失に限定されます。医師の判断に従うかどうかは医師の自律に委ねられるとしています。
以上のように、人工知能を医療に活用する際には、技術の進化と共に人間の関与と責任が不可欠であるとされています。病気や薬の説明などの一部をAIに任せることで、医療者の負担を軽減し、効果的な活用が求められています。人工知能はあくまでツールであり、人間の指導のもとで用いられるべきであるというのが、報告書の提言です。