OpenAIとAnthropic、科学者1000人と「AI Jam Session」–米国立研究所と連携
今回は「OpenAIとAnthropic、科学者1000人と「AI Jam Session」–米国立研究所と連携」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
AIの安全性と法規制について今後の見通しが不透明な中、AI企業と米国政府とのパートナーシップが拡大している。
AnthropicやOpenAIなどのAI企業は米国時間2月28日、「AI Jam Session」と題したイベントを開催した。9つの研究所から1000人の科学者が参加し、OpenAIの「o3-mini」やAnthropicの「Claude 3.7 Sonnet」などの最新AIモデルを使用して研究を進めた。
Anthropicは発表で、このセッションは「科学的探求の複雑さや多様な側面を管理するAIの可能性をより本格的に評価するとともに、多大な時間とリソースを必要とする複雑な科学的課題を解決するAIの能力を検証する」と述べた。
AI Jam Sessionは、米国政府、Anthropic、OpenAIの間で行われた既存の合意の一環となる。Anthropicは2024年4月、米エネルギー省(DOE)と米国家核安全保障局(NNSA)と提携し、「Claude 3 Sonnet」が危険な核情報を明らかにするかどうかをテストするためにレッドチームを実施した。OpenAIは2025年1月30日、DOEの国立研究所と提携し、「最新の推論モデルを使用して科学研究を大幅に加速させる」と発表している。
国立研究所は米国内に点在しており、17の科学研究と試験施設からなる。核セキュリティから気候変動対策まで、さまざまなテーマを調査している。
OpenAIの発表では、参加した科学者はモデルの応答を評価した上で、「将来のAIシステム構築において科学者のニーズを考慮できるよう、フィードバックを提供する」ことを推奨されたという。同社は、科学者がAIモデルをより有効に活用する方法に関するセッションの結果を共有すると述べた。
OpenAIは発表の中で、エネルギー長官のChris Wright氏の声明を引用し、AI開発を国の科学技術における次の『愛国的努力』としてマンハッタン計画に例えた。
OpenAIと国立研究所の広範なパートナーシップは、疾患の治療と予防の加速と多様化、サイバーおよび核セキュリティの向上、再生可能エネルギーの探求、物理学研究の進歩を目的としている。AI Jam Sessionと国立研究所のパートナーシップに加えて、民間AI企業と政府との間には、他にも幾つかの取り組みが並行して進められている。 例えば、地方、州、連邦機関向けにOpenAIがカスタマイズしたチャットボット「ChatGPT Gov」や、5000億ドルのデータセンター投資計画「Project Stargate」などがある。
これらの合意は、Trump米政権下でのAI戦略が安全性と法規制を軽視していることを示唆している。まだ実現していないものの、DOEの広範な解雇の一環としてAI安全研究所のスタッフ削減が数週間前からうわさされており、研究所の責任者は既に辞任している。現政権のAI行動計画はまだ発表されておらず、AI監視の将来は不透明なままである。
最新のAI開発を政府の取り組みに直接委ねるこのようなパートナーシップは、Trump政権がAI企業とより緊密に連携し、第三者の監視機関の関与を軽視するにつれて、より一般的になる可能性がある。リスクは、展開が加速するにつれて、強力で安全な新しいモデルの機能に対する監視がさらに少なくなることである。