グーグル、責任あるAI報告書で消費者重視を強調–兵器利用禁止の誓約は撤回
今回は「グーグル、責任あるAI報告書で消費者重視を強調–兵器利用禁止の誓約は撤回」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Googleは米国時間2月4日、6回目となる「Responsible AI Progress Report」(責任あるAIの進歩に関する報告書)を発表した。報告書では、「AIのリスクを管理、対応、測定、管理するための手法」に加え、「Google全体で責任あるAIイノベーションを運用化するための最新情報」が詳細に説明されている。
報告書の中で、Googleは2024年に発表した多数の安全研究論文(300以上)、AI教育およびトレーニングへの投資(1億2000万ドル)、同社のCloud AIが米国立標準技術研究所(NIST)のリスク管理フレームワークで「成熟」の評価を受けたことなど、さまざまなガバナンス基準を挙げている。
また、セキュリティとコンテンツに焦点を当てたレッドチーム演習に重点的に取り組み、「Gemini」「AlphaFold」「Gemma」などのプロジェクトについて深く掘り下げ、有害なコンテンツの生成や表面化を防ぐために同社がモデルを保護する方法について詳しく説明している。AI生成の誤情報を追跡るために設計された、オープンソースのコンテンツ透かしツール「SynthID」などの関連ツールも説明の一部として紹介されている。
Googleは「Frontier Safety Framework」を更新し、新たなセキュリティ勧告、誤用緩和手順、「欺瞞的アラインメントリスク」を追加した。これは、「自律システムが意図的に人間の制御を弱めるリスク」に対処するものである。アラインメント(調整)の偽装、つまりAIシステムが自律性を維持するためにその作成者を欺くプロセスは、最近では「OpenAI o1」や「Claude 3 Opus」などのAIモデルで指摘されている。
全体として報告書は、消費者向けAIにおけるエンドユーザーの安全性、データプライバシー、セキュリティに重点を置いている。誤用やサイバー攻撃からの保護、人工汎用知能(AGI)構築の重要性についても散発的に言及されている。
注目すべきは、Bloombergが報じたように、同社がウェブサイトから、AIを武器開発や市民監視に利用しないという誓約を削除したことである。Bloombergが先週時点では確認できたとする「われわれが追求しない用途」というセクションは削除されたようだ。
報告書が消費者を重視する姿勢を示す一方で、兵器や監視に関する誓約を削除するという行動のずれは、「責任あるAIとは何か」という長年の疑問を浮き彫りにしている。
Googleは報告書の発表に際して、AI原則を「大胆なイノベーション」「協調的な進歩」「責任ある開発と展開」――の“3つの基本原則”に基づいて更新したと述べた。更新されたAIの原則では、責任ある展開について「ユーザーの目標、社会的責任、広く受け入れられている国際法と人権の原則」に従うとしている。これは、指針に矛盾しないように見えつつも、兵器の使用事例を再評価する余地を残しているに思える。
「われわれは、当社の使命や科学的重点分野、専門分野に沿ったAIの研究と応用に引き続き注力していく」とブログには記されている。「常に、特定の作業について、潜在的なリスクを大幅に上回る利益があるかどうかを慎重に評価し、その作業を進めていく」
この方針転換により、テクノロジー大手がAIの軍事利用に対する姿勢を徐々に変えていることがさらに明確になった。先週、OpenAIは2024年末に防衛請負業者のAndurilと提携した後、米国立研究所との提携を発表し、国家安全保障インフラへの関与を深めた。2024年4月には、Microsoftが「DALL-E」を米国防総省に売り込んだが、当時OpenAIは兵器開発を行わないという立場を維持していた。