臨床現場におけるAI使用について

医学教育

NEJMにEducational Strategies for Clinical Supervision of Artificial Intelligence Useという面白いReviewがありました。

Pre-AI vs. Post-AIの医師

インターネットの発明やEHR(電子カルテ・レコード)と同様に、AIの発展は医療に絶大な影響を与えようとしています。特に大規模言語モデル(LLM)の発達は「人間らしい言語」と「相対的エスパート性」をAIに与え、新たな医療の内容を形成しています。

このような技術革命は、Pre-AIの時代に身体化した診断力を経験として伝承してきた医師と、Post-AIの時代にチャットボットを直覧することで断定していく医師を「全く異なる存在」に変えてしまうかもしれません。

四つのAIリスク

NEJM記事は、AI使用によって医療教育が直面する四つのリスクを提起しています。

  1. Automation bias ー 自動化された系統に必要以上の信頼をしてしまうバイアス。
  2. Deskilling ー すでに積み上げた技術を失ってしまうこと。
  3. Never-skilling ー 最初からスキルが身につかないままになること。
  4. Mis-skilling ー 不正確なAIからのアウトプットによって、誤った行動を覚えてしまうこと。

これらは、医療の質だけでなく、医師自身の存在価値をも覆うことになりかねません。

Post-AI時代の医師の存在意義

これまでの医師は「診断力」や「患者との対話」で素晴らしさを発揮しましたが、AIはその両方面で人間を超えるのではないかと思わせる場面もあります。

それでは、医師に残された役割は「責任をとること」のみなのでしょうか。

不確定性を扱う経験の結晶としての判断力、相談の中でうまれる感性的な視点、そして「共感」や「人間同士としてのつながり」は、今のAIにはまだない能力です。

Cyborg型とCentaur型

NEJMの記事では、AIと人間の関わり方を夢物語的メタファにならえて「サイボーグ型」と「ケンタウロス型」として分類しています。

  • Cyborg型: AIとのみっちりした協力関係によってタスクをこなしていく型
  • Centaur型: 人間の判断を根底に、AIを適切に分担して使い切る型

高リスクの件や非構造化作業ではCentaur型が適しており、通信文書作成や初期ドラフトなどの作業にはCyborg型が有用です。

大事なのは、どちらかの型に固執するのではなく、用件とリスクに応じて、この両者を自然に行き来できる「適応力」です。

AI使用の指導のこつ

学習者がAIを使用した時、指導者はたんに正誤を言うのではなく、以下の構造化されたやりとり(DEFT-AI)を挙げることで、批判的思考を促します。

  1. Diagnosis / Discussion
    • なぜAIを使ったのか、どう使ったのかを語ってもらう
  2. Evidence
    • 読み込んだ情報、発言の補強の有無を確認
  3. Feedback
    • 自分の考え方やAIの使い方を振り返ってもらう
  4. Teaching
    • 医療知識、EBMの学習、プロンプトの形成方法を教える
  5. AI Engagement
    • 今後のAIの使い方について議論する

まとめ

AIは今後も進化し続けるでしょう。しかし、その進化に合わせて、医師も「進化する存在」でなければなりません。AIに使われるのではなく、AIを使いこなす(手綱をにぎる)存在でありたいですね。

コメント

タイトルとURLをコピーしました