AIの未来における安全性と責任–「SXSW 2025」で示された3つの論点
今回は「AIの未来における安全性と責任–「SXSW 2025」で示された3つの論点」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
世界を乗っ取ることができる人工知能(AI)テクノロジーはサイエンスフィクション(SF)小説や映画の中だけの話だが、既存のAIにも悪事を働く能力があり、ハルシネーション(幻覚:AIが事実と異なる情報を勝手に作り出してしまう現象)の発生、人のデータを用いた訓練、他者の成果を使用した新しい出力の生成などが可能だ。このような欠点と、AIの急速な普及はどのような関係にあるのだろうか。
「South by Southwest」(SXSW)ではこの疑問が大きく取り上げられ、AI関連の大半のセッションがAIの安全性というトピックに触れるか、深く掘り下げていた。IBMやMeta、Microsoft、Adobeといった企業のリーダーたちが、AIの未来についての洞察を共有した。リーダーたちの見解は、AIの未来は悲観的なことばかりではない、という点で一致している。
「Adobe Fireflyエンタープライズ版」を立ち上げたHannah Elsakr氏は次のように述べた。「AIには、もっと優秀な広報担当者が必要だ。私たちはSFから学んだことしか知らない。AIが私たちの人生を乗っ取ると考えられているが、それはAIの目的ではない」
どのパネルディスカッションでも、AIテクノロジー大手のリーダーたちが、AIの未来における安全性と責任の位置付けについて、3つの包括的なテーマを議論した。リーダーらの発言を聞けば、不安が少し和らぐかもしれない。
AIシステムに欠陥があることは否定できない。AIはハルシネーションを起こすことや、応答にバイアスが含まれていることがよくある。そのため、AIシステムを職場に導入すると、内部プロセスにエラーが生じて、従業員やクライアント、ビジネス目標に悪影響が及ぶのではないか、と多くの人が懸念している。
この問題を軽減する上で重要なのは、AIに任せるタスクを慎重に検討することだ。例えば、Microsoftの「責任あるAI」部門で最高製品責任者(CPO)を務めるSarah Bird氏は、現在のAIの能力に適した用途を探している。
「仕事に合ったツールを用意する必要があるため、必ずしも全ての用途にAIを使用する必要はない」とBird氏。「AIを絶対に使用すべきでないケースもある」
問題が起きそうなAIの用途の例としては、人材採用での利用がある。AIには、特定の国籍、学歴、性別を優遇した出力を生成する固有のバイアスがあることが、多くの研究で明らかになっている。そのため、IBMはAIエージェントを用いた選別や選定のプロセスを止めて、候補者と職務のマッチングにエージェントを使用するようになった。
IBM 最高人事責任者(CHRO)のNickle LaMoreaux氏は「AIとエージェントの用途が何であれ、それが自社とその文化に適しているかどうかを確認することの重要性は、いくら強調しても足りない」と語る。
AIが多くのタスクを実行できるからといって、AIにさせる必要があるわけではない。AIの欠点と強みを理解することが、落とし穴を避けて、AIの導入から可能な限り最高の成果を引き出す上で重要になる。