医師免許試験に合格できるAIは医者になるべきか
今回は「医師免許試験に合格できるAIは医者になるべきか」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
医療の分野では最近、1つの大きな出来事が起こった。それは驚きと、嫌悪と、ある種の恐怖さえも引き起こした。
Googleは医療に関して多くの取り組みを行っているが、2022年に発表された医療分野に特化した大規模言語モデル(LLM)である「Med-Palm」の最新版ほど注目を集めたものはない。
医療に特化したLLMであるMed-Palmとその後継モデル「Med-Palm 2」には、厳格に医療関連だけに絞った情報が入力されている。Googleは、このモデルに(医者の卵や不安を抱えるその親にとっては苦痛の種である)米国の医師免許試験(USMLE)の設問を受けさせた。USMLEは難易度が高いことで有名で、合格するには数百時間もの猛勉強が必要だと言われている。
ところがMed-Palm 2は、期待をはるかに上回る成果を挙げ、前モデルの得点よりも18%高い、85%の得点を記録した。これは専門家の医師レベルの成績であり、このモデルをコーディングした「親」たちは、その夜パブでその成果を自慢げに語ったに違いない。
一方、医療関連のデータセットではなく、汎用のデータセットを使用した汎用のAIモデルをベースにしている「ChatGPT」にUSMLEを受けさせたところ、その結果は合格基準である60%にわずかに及ばなかった。ただしこれは、2022年の結果であり、近い将来、新しいバージョンのChatGPTが試験に合格するであろうことは想像に難くない。
しかし、誰もがこうした新たに生み出された天才医師に好意的なわけではない。
Googleが、新しいチャットボットである「Bard」をお披露目したあと、このAIが宇宙望遠鏡に関する基本的な質問に誤った回答をして、同社の時価総額が1000億ドル(約13兆円)失われるという屈辱的な事態に苦しんだのはたった数カ月前のことだ。
この回答の誤りは、AIシステムの正確さと社会への影響についての論争を呼び起こし、その論争は今も続いている。
懸念が広がっているのは、医療システムに使用されている商用アルゴリズムが、人種的な偏見に侵されている傾向があるためだ。米国の医療システムに使用されているあるアルゴリズムが、白人患者と、はるかに病気が重い黒人患者に同じリスクを割り当てており、黒人に選択される追加的な治療が半数以下になっていたという、有名な事例がある。