今考えるべきAIの安全性–イノベーションを推進する規制の在り方とは
今回は「今考えるべきAIの安全性–イノベーションを推進する規制の在り方とは」についてご紹介します。
関連ワード (データマネジメント等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
OpenAIの「ChatGPT」が台頭して以降、日本でも企業でのAI活用に関心が高まりを見せています。ビジネスのさまざまな場面にAIが導入、活用されることによって、これまで以上に企業や組織における運営の効率化や生産性の向上、コストダウンの実現が期待されています。実際、総務省の「令和6年(2024年)版 情報通信白書」によると、調査に回答した日本企業の約75%が、生成AIの活用によって「業務効率化や人員不足の解消につながると思う」と回答しています。
AI技術の高度化により新たな選択肢やビジネスチャンスが生まれます。一方、大量のデータが特定のプラットフォーム上に集まることで、情報漏えいやプライバシー侵害、サイバー攻撃などのリスクへの懸念も高まっています。そんな中、「未知の可能性を秘めたAIをいかに安全に開発、利用していくべきか」といった議論が国内外で活発になっています。
企業が提供する製品やサービス、ひいては人々の生活において今後、AIがイノベーションをけん引していく存在であることは疑いようがないでしょう。しかし、そのイノベーションによる恩恵を人々が安全に、安心して享受できる環境が整備されなければ、せっかくの技術も最大限に生かすことができなくなるかもしれません。
本稿では、AIの安全性と規制をめぐる国際的な議論の現状を振り返りながら、「安全性を担保しながら、AIによるイノベーションを推進するルール作りとはどのようなものか」について考えていきたいと思います。
近年のAI技術の発展や活用の広がりに伴い、AIの安全性に関する議論と枠組み作りが国際的に進んでいます。代表的な事例を見ていきましょう。
欧州連合(EU)では、2024年8月1日に世界初となる包括的なAI規制法が発効されました。EUの規制は、法の支配と民主的な権利、環境の持続可能性の保護と、欧州におけるイノベーション推進とのバランスをとったものです。市民の権利を脅かすAIアプリケーションや法執行機関による生体情報システムの使用が禁止されています。
同法案では使用目的や内容によってAIの危険度(リスク)がレベル分けされ、それぞれに規制が設けられることになっています。EU加盟国により承認、施行されれば、違反企業に制裁金が科されることになります。
米国では、2023年10月にBiden大統領が、AIに関する初の大統領令「AIの安全、安心で信頼できる開発と利用」を発令しました。これには、AIの安全性とセキュリティの向上を目的に、開発企業に対してサービス提供などの開始前に、政府による安全性の評価を受けるよう義務付けるといった内容が含まれています。
ただし、これは今後提供される新サービスに限定されることになっており、AIの安全性に配慮しつつもAI分野におけるイノベーションと競争をリードしたいという米国の姿勢が表れていると言えます。米国の今後の方向性は、2024年11月に行われる大統領選挙、連邦議会議員および地方選挙の結果に影響される可能性があるため、今後注意して見ていく必要があるでしょう。
日本は、2023年5月のG7広島サミット以降、生成AIに関する国際的なルール作りを検討するための枠組み「広島AIプロセス」を主導してきました。「イノベーションの促進とライフサイクルにわたるリスクの緩和を両立する枠組みを関係者と連携しながら積極的に共創していくことを目指す」という基本姿勢を取っています。2023年6月から政府主催のAIに関する政策の方向性を議論する「AI戦略会議」で、国内でのルール作りの議論も深めてきました。2024年1月に「AI事業者ガイドライン案」が正式に公表され、パブリックコメントから得た内容も踏まえた上で、4月に「AI事業者ガイドライン(第1.0版)」が公表されています。
グローバルでは、2023年11月に英国で国際会議「AI安全サミット」が開催され、AIの安全性をめぐる国際協調宣言「ブレッチリー宣言」に、日本・米国・欧州を含む29カ国が署名しました。宣言では、懸念されるリスクの特定、科学的な理解の深化、国を超えた政策構築の必要性が指摘されており、サミットは今後も開催される予定です。