「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール

今回は「「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール」についてご紹介します。

関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 OracleでOracle Cloud Infrastructure(OCI)担当エグゼクティブ・バイスプレジデントを務めるMahesh Thiagarajan(マヘシュ・シャガラジャン)氏が都内でグループインタビューに応じた。米国ラスベガスで開催の年次カンファレンス「Oracle CloudWorld 2024」で発表された「OCI Supercluster」をはじめとする同社のAIインフラストラクチャーについて戦略を明らかにした。

 同社のAIインフラは、OCI上で提供されるAIサービスである。生成AI、コンピュータビジョン、予測分析などの高度なAIワークロードを迅速に実行するための機能が含まれる。Thiagarajan氏は「幅広いAIインフラストラクチャーを提供しており、最も要求の厳しいAIワークロードをクラウドで実行される顧客を支援している。Oracleの分散クラウドを活用することで、顧客は最高レベルのデータとAIの主権を維持しながら、クラウドサービスやAIサービスを利用したい場所で柔軟に導入できる」と述べる。

 OCIのAIインフラの特徴としては(1)GPUの性能を極限まで引き出すベアメタルサーバー、(2)大規模にスケール可能なOCI Supercluster、(3)I/Oがボトルネックにならない高性能なストレージ――の3点が挙げられる。

 まず1つ目としては、GPUサーバーをベアメタルインスタンスで提供するため、仮想化によるオーバーヘッドが発生せず、GPUの性能を最大限に引き出すことができる。また、GPUに最適なサーバーをNVIDIAと共同で開発しているという。「われわれは、AIトレーニングのためにベアメタルGPUを提供する唯一のハイパースケーラーだ」とThiagarajan氏は強調する。

 2つ目のOCI Superclusterは、最大13万1072基の「NVIDIA Blackwell GPU」を搭載可能なコンピューティングクラスターである。ピーク性能は最大2.4ゼタFLOPSに達し、米国オークリッジ国立研究所のスーパーコンピューター「Frontier」の3倍以上、他のハイパースケーラーの6倍以上のGPU数を提供するという。また、RDMA over Converged Ethernet version 2(RoCE v2)またはNVIDIA Quantum-2 InfiniBandベースの超低遅延ネットワークにより、「GPUを最大限に活用してもネットワークのボトルネックは発生しない」(Thiagarajan氏)という。

 なお、OCI Superclusterは、「NVIDIA H100/H200 Tensor Core GPU」、またはNVIDIA Blackwell GPUを搭載した「OCI Compute」とともに注文を受け付けている。H100を搭載したシステムは、最大1万6384GPUまで拡張でき、最大65エクサFLOPSの性能と13Pb/sのネットワークスループットを提供する。H200を搭載したシステムは、最大6万5536GPUまで拡張でき、最大260エクサFLOPSの性能と52Pb/sのネットワークスループットを提供し、2024年後半に利用を開始する予定。

 「NVIDIA GB200 NVL72」を搭載した液冷ベアメタルインスタンスは、NVLinkおよびNVLink Switchを使用して、単一のNVLinkドメイン内で最大72基のBlackwell GPUと通信し、129.6TB/sの帯域幅を提供する。2025年前半に利用可能になる予定のNVIDIA Blackwell GPUは、第5世代のNVLink、NVLink Switch、およびクラスターネットワーキングを活用し、単一のクラスター内でシームレスなGPU間通信を実現するとしている。

 3つ目はストレージである。「OCI File Storageサービス」の高性能マウントターゲット(HPMT)を利用することで、1テラバイト当たり最大1Gbpsの高スループットでAIワークロードのストレージアクセスが可能になる。また、「マネージドLustreサービス」の利用によって、1TB当たり最大8Gbpsの超高性能なストレージアクセスも可能になる。現在は早期アクセスを提供しており、2025年2月に一般提供を開始する予定となっている。

 「OCIは顧客のニーズを満たすために、10日ごとに1万GPUという記録的な速さで大量のGPUをデリバリーしている」とThiagarajan氏はアピールし、最大規模の大規模言語モデル(LLM)のうちの4つがOCI上で稼働していることを明らかにした。

 「大手LLMからAIスタートアップまで多くの企業がOCIのAIインフラを使っている。世界中のAIがOCI上で作られているといっても過言ではない」(Thiagarajan氏)

COMMENTS


Recommended

TITLE
CATEGORY
DATE
HPEが事業方針を発表、「エッジからクラウドまで」の施策を強化
IT関連
2023-12-02 13:28
SaaS事業者のランサムウェア耐性環境などに課題–アシュアード調査
IT関連
2024-12-18 01:25
アイムービック、オフショア開発に「Backlog」を導入–情報を一元管理
IT関連
2024-12-15 23:50
TOPPANホールディングスら、セキュリティソリューション企業の市民ID事業部門を買収
IT関連
2024-10-30 01:47
EUがBMWとVWに約1110億円の制裁金、90年代からの排ガスカルテルで
モビリティ
2021-07-11 03:31
電子棚札企業のSES-imagotagが日本進出–価格表示の域を超えた価値提案
IT関連
2023-04-08 02:39
ANAが仮想旅行アプリ 2022年に世界提供、需要喚起へ
IT関連
2021-05-22 15:36
ラウンドアップ:進むデジタルマーケティングへの生成AI活用–業務はどう変わる
IT関連
2023-12-31 00:42
BIPROGYとリコー、デジタルツインを活用した建物設備管理に向けて実証
IT関連
2024-04-06 15:10
急落の日本株は「買い」!? 米国株最高値でも日経平均が売られる理由
IT関連
2021-07-12 00:07
CTCとJR東、上野駅のイベントで来店者の人流データを可視化–集客力を計測
IT関連
2023-04-05 02:39
円安により大半の企業でクラウド出費が増加–さくらインターネット調査
IT関連
2022-12-10 21:48
MWC 2022、一部ロシア企業の出展を禁止へ、ロシアパビリオンはなし
IT関連
2022-02-27 12:36
独自の制限でいまだローテクな農業労働者の雇用と給与のあり方をテッでク再考するGanazが7.7億円調達
その他
2021-06-06 22:52