Open AIなどAI業界のリーダーら、人類「絶滅」レベルのリスクを警告する声明に署名
今回は「Open AIなどAI業界のリーダーら、人類「絶滅」レベルのリスクを警告する声明に署名」についてご紹介します。
関連ワード (CIO/経営等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIの最高経営責任者(CEO)Sam Altman氏やGoogle DeepMindのCEO、Demis Hassabis氏といった人工知能(AI)業界のリーダーが、その他の科学者や著名人らとともに米国時間5月30日、先進的なAIの人類に対する潜在的脅威を警告する声明に署名した。
わずか一文の短い声明は、非営利団体Center for AI Safetyのウェブサイトで公開された。「AIによる絶滅のリスクを緩和することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と記されている。
OpenAIが2022年に「ChatGPT」と「Dall・E 2」を発表したのに続いて、ほぼすべての主要IT企業がここ数カ月の間に、AIチャットボットやその他の生成AIツールをリリースしている。AI技術は日常生活に浸透し始めており、ウェブ上の情報を検索する方法から、ワークアウトメニューを作成する方法にいたるまで、あらゆるものを変える可能性がある。矢継ぎ早にAIツールがリリースされる状況を受けて、科学者や業界専門家らは、規制なくAI開発が続けられた場合のリスクに対する懸念を声高に訴え始めている。
先進的なAI技術の潜在的脅威をめぐる警告は最近になって続いており、今回の声明はその流れをくむものである。AI業界のリーダーであり、OpenAIに出資するMicrosoftは25日、40ページの報告書を公開し、悪用や潜在的リスクに対して先手を打つために、AI規制が必要だと述べた。3月には、TeslaとTwitterのCEOであるElon Musk氏やAppleの共同創設者であるSteve Wozniak氏など、1000人を超えるIT業界などのリーダーが、先進的なAIプロジェクトの開発を少なくとも6カ月間、あるいは業界規格やプロトコルが追いつくまで停止することを求める、公開書簡に署名した。
「文明の制御を失うリスクを負うべきなのか。そのような決定を、選挙で選ばれたわけでもないテクノロジー業界のリーダーに委ねてはならない」と、3月22日に公開されたその書簡には記されていた。「強力なAIシステムは、プラスの効果があり、リスクが管理可能であると確信できた場合にのみ開発されるべきだ」(書簡)
一部の批評家は、同技術の将来的なリスクに目を向けるテクノロジー業界のリーダーらのやり方では、現在の問題は解消されないと指摘している。現在の問題とは、AIに「誤解させる」傾向があること、AIチャットボットが入力に対する回答にたどり着くまでの過程が不明であること、データプライバシーや盗作の懸念などだ。リーダーの中には、独自のAI製品を開発する時間を稼ぐために、競合他社の製品開発の停止を要請している人もいる可能性がある。