OpenAI、安全対策の最新情報を公開–従業員の内部告発を受け
今回は「OpenAI、安全対策の最新情報を公開–従業員の内部告発を受け」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
生成人工知能(AI)モデルの急成長に関しては、安全性が最大の懸念事項だ。だが、OpenAIの安全対策について複数の従業員が提出し、The Washington Post(WP)が入手した7ページに及ぶ内部告発状は、こうした懸念をさらに高めるものとなっている。そこでOpenAIは、同社の安全対策に関する最新情報を一般に公開し始めた。
OpenAIは米国時間7月23日、「X」(旧Twitter)に連続で投稿し、「当社が業務の中でどのように安全性を優先しているか」を説明した。このスレッドには、最近の主要な取り組みや進行中のプロジェクトの最新情報が記されている。
OpenAIはまず、2023年12月にベータ版として初めて公開した安全性計画「Preparedness Framework」を取り上げた。このフレームワークは、OpenAIが同社のフロンティアAIモデルの安全性を確保するために講じるさまざまな予防策を規定したものだ。例えば、さまざまな指標についてモデルの評価をスコアカードという形式で示し、リスク安全性レベルが「Medium」(中程度)を超えた場合は新しいモデルを公開しないといったことが定められている。
また、OpenAIやその関係者がAIの進歩を分類し、追跡するのに役立つ「レベル」の策定に積極的に取り組んでおり、その詳細を「間もなく」発表する予定だと、同社は記している。
次に、OpenAIは「Safety and Security Committee」(安全セキュリティ委員会)に関する最新情報も公表した。この委員会は、同社の業務に対するチェックアンドバランス(抑制と均衡)をさらに向上させるために、取締役会が5月に設置したものだ。同社によれば、技術やポリシーの専門家を含む同委員会による精査は現在進行中で、精査が終わり次第、今後予定している追加の対策について詳細を発表するという。
最後に、OpenAIは内部告発者に関するポリシーについて取り上げ、「保護される通報をする従業員の権利を保護する」と述べている。また、AIに関する対話を促進するため、従業員の退職手続きを改変し、会社に対する誹謗中傷禁止の条項を削除したと記している。
OpenAIによる一連の投稿があったのは、内部告発状を受けて一部の米議員がOpenAIに安全策に関するデータを開示するよう要求したわずか1日後だ。内部告発状で主に指摘されているのは、従業員が技術的なリスクを適切な当局に警告するのをOpenAIが妨害していたことや、内部告発者への補償に関する連邦政府の権利を従業員に放棄させていたことで、Xの投稿はこの両方に対応するものとなっている。