「GPT-4」を米がん研究機関が試験導入–懸念は回答の正確さとコスト
今回は「「GPT-4」を米がん研究機関が試験導入–懸念は回答の正確さとコスト」についてご紹介します。
関連ワード (ビッグデータ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
権威ある学術誌The New England Journal of Medicine(NEJM)で先週、この種のものとしては初の画期的な研究が掲載され、ボストンの著名な研究施設であるダナファーバーがん研究所の研究者らが、OpenAIの「GPT-4」を業務に導入した数カ月について説明した。
この研究で、ユーザーの最大の懸念はGPT-4の不正確な応答であること、そして克服すべき最大の課題の1つはGPT-4への質問投稿が高コストであることが明らかになった。
研究結果は、筆頭著者のRenato Umeton氏とダナファーバー生成AIガバナンス委員会の同僚らが、NEJM傘下の専門誌であるNEJM-AIに掲載されたレポートで紹介した。
「ダナファーバーの職員は現在、『GPT4DFCI』を用いて作業を合理化し、研究を実施している」とUmeton氏とチームは記している。「これは、われわれの知る限り、学術医療センターや病院の職員による一般利用のために用意された初のLLMだ」
チームは、「GPT-4 Turbo」をはじめとするGPT-4のモデルサイズ5種類をGPT4DFCIに統合し、Microsoftの「Azure OpenAI Service」で実行した。GPT4DFCIは、「ユーザーインターフェースがChatGPT風のシンプルな設計」であり、「その実装はプライベートで安全性が高く、HIPAAに準拠し、HIPAAの監査要件に対応している」という。
チームは数カ月かけて同システムをダナファーバーに展開し、1万2500人のスタッフへの指導と警告を行い、「パブリックLLMのリスクについて説明するとともに、関連する研究所のポリシーを明確に伝えた。たとえば、PHI(個人健康情報)、医療記録や研究所の機密情報は、一部であっても公共のAIプラットフォームに入力してはならない、というポリシーがある」
研究に携わったエンジニアは、ユーザーにツールの使用目的や懸念事項について質問し、回答を記録した。「AIの『主な用途』として最も多かった回答は、『メモ、レポート、その他の文書/ファイル内の情報の抽出または検索』と『一般知識に関する質問への回答』だった」とUmeton氏とチームは説明している。
「Azure OpenAI Serviceの運用コストは急速に増加する可能性がある」ことがリスクに挙げられた、と著者らは記している。「スループットが格段に高い研究ユースケースが可能になるにつれて、コストの問題が当機関における重大な検討事項になると考えられる」
Umeton氏とチームは次のように結論付けた。「GPT4DFCIが患者の転帰と体験、スタッフの幸福、当研究所の臨床診療と研究の公平性、費用対効果を改善するかどうかを判断するのは、時期尚早だ。しかし、当研究所のポリシーと適用法を遵守し、完全に監査可能な方法でLLMをテストする機会をスタッフのコミュニティーに提供することで、患者へのサービスにおける発見と臨床の使命を前進させながら、リスクを適切に管理できると信じている」
GPT4DFCIのコードは「GitHub」に投稿されている。