「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール

今回は「「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール」についてご紹介します。

関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 OracleでOracle Cloud Infrastructure(OCI)担当エグゼクティブ・バイスプレジデントを務めるMahesh Thiagarajan(マヘシュ・シャガラジャン)氏が都内でグループインタビューに応じた。米国ラスベガスで開催の年次カンファレンス「Oracle CloudWorld 2024」で発表された「OCI Supercluster」をはじめとする同社のAIインフラストラクチャーについて戦略を明らかにした。

 同社のAIインフラは、OCI上で提供されるAIサービスである。生成AI、コンピュータビジョン、予測分析などの高度なAIワークロードを迅速に実行するための機能が含まれる。Thiagarajan氏は「幅広いAIインフラストラクチャーを提供しており、最も要求の厳しいAIワークロードをクラウドで実行される顧客を支援している。Oracleの分散クラウドを活用することで、顧客は最高レベルのデータとAIの主権を維持しながら、クラウドサービスやAIサービスを利用したい場所で柔軟に導入できる」と述べる。

 OCIのAIインフラの特徴としては(1)GPUの性能を極限まで引き出すベアメタルサーバー、(2)大規模にスケール可能なOCI Supercluster、(3)I/Oがボトルネックにならない高性能なストレージ――の3点が挙げられる。

 まず1つ目としては、GPUサーバーをベアメタルインスタンスで提供するため、仮想化によるオーバーヘッドが発生せず、GPUの性能を最大限に引き出すことができる。また、GPUに最適なサーバーをNVIDIAと共同で開発しているという。「われわれは、AIトレーニングのためにベアメタルGPUを提供する唯一のハイパースケーラーだ」とThiagarajan氏は強調する。

 2つ目のOCI Superclusterは、最大13万1072基の「NVIDIA Blackwell GPU」を搭載可能なコンピューティングクラスターである。ピーク性能は最大2.4ゼタFLOPSに達し、米国オークリッジ国立研究所のスーパーコンピューター「Frontier」の3倍以上、他のハイパースケーラーの6倍以上のGPU数を提供するという。また、RDMA over Converged Ethernet version 2(RoCE v2)またはNVIDIA Quantum-2 InfiniBandベースの超低遅延ネットワークにより、「GPUを最大限に活用してもネットワークのボトルネックは発生しない」(Thiagarajan氏)という。

 なお、OCI Superclusterは、「NVIDIA H100/H200 Tensor Core GPU」、またはNVIDIA Blackwell GPUを搭載した「OCI Compute」とともに注文を受け付けている。H100を搭載したシステムは、最大1万6384GPUまで拡張でき、最大65エクサFLOPSの性能と13Pb/sのネットワークスループットを提供する。H200を搭載したシステムは、最大6万5536GPUまで拡張でき、最大260エクサFLOPSの性能と52Pb/sのネットワークスループットを提供し、2024年後半に利用を開始する予定。

 「NVIDIA GB200 NVL72」を搭載した液冷ベアメタルインスタンスは、NVLinkおよびNVLink Switchを使用して、単一のNVLinkドメイン内で最大72基のBlackwell GPUと通信し、129.6TB/sの帯域幅を提供する。2025年前半に利用可能になる予定のNVIDIA Blackwell GPUは、第5世代のNVLink、NVLink Switch、およびクラスターネットワーキングを活用し、単一のクラスター内でシームレスなGPU間通信を実現するとしている。

 3つ目はストレージである。「OCI File Storageサービス」の高性能マウントターゲット(HPMT)を利用することで、1テラバイト当たり最大1Gbpsの高スループットでAIワークロードのストレージアクセスが可能になる。また、「マネージドLustreサービス」の利用によって、1TB当たり最大8Gbpsの超高性能なストレージアクセスも可能になる。現在は早期アクセスを提供しており、2025年2月に一般提供を開始する予定となっている。

 「OCIは顧客のニーズを満たすために、10日ごとに1万GPUという記録的な速さで大量のGPUをデリバリーしている」とThiagarajan氏はアピールし、最大規模の大規模言語モデル(LLM)のうちの4つがOCI上で稼働していることを明らかにした。

 「大手LLMからAIスタートアップまで多くの企業がOCIのAIインフラを使っている。世界中のAIがOCI上で作られているといっても過言ではない」(Thiagarajan氏)

COMMENTS


Recommended

TITLE
CATEGORY
DATE
マイクロソフト、「.NET 7」にDockerコンテナイメージ生成機能を搭載、Dockerファイル不要に
.NET
2022-09-09 16:37
Google、目の前に相手が実在するかのような「Project Starline」発表 精細な3Dモデルのリアルタイム伝送と裸眼立体視で :Google I/O 2021
ネットトピック
2021-05-20 02:56
中国で広がるペットの鼻紋活用–保護した犬猫を照会を容易に
IT関連
2022-11-05 14:47
写真で見る、3年ぶりにリアル開催のSAPイベント
IT関連
2022-05-17 12:28
AtlassianのConfluenceが新型コロナ禍における利用急増を受けデザイン面を強化
ネットサービス
2021-03-20 08:31
【コラム】アフリカ諸国政府にブロックチェーンサービスを売って学んだこと
ブロックチェーン
2021-07-21 06:22
丸紅、海外子会社にSAPのクラウド化支援策を適用
IT関連
2022-03-10 11:14
デジタルツインのMatterportが日本法人を設立–国内の事業展開を本格化
IT関連
2022-04-16 16:13
富士フイルムBI、業務連携クラウドを発表–「全員設計」の経験をサービス化
IT関連
2023-10-21 10:12
マイクロソフトが産業別DX支援をゲームにも拡大へ
IT関連
2021-05-19 00:57
ソフトバンク、映像の“超解像”を実証–5G・MEC・「NVIDIA Maxine」を活用
IT関連
2021-04-16 03:46
Uber、2021年の売上高を力強く伸ばし調整後の収益性も改善
IT関連
2022-02-11 02:12
東京大学が「デジタルツイン」構築向けWebGISプラットフォーム「Re:Earth」をオープンソースとして公開
ソフトウェア
2021-07-29 15:03
次期Python、ついにJITコンパイラ搭載の見通し。「copy-and-patch」と呼ばれる新たなJITコンパイラの仕組みとは?
Python
2024-01-26 22:25