「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール

今回は「「世界中のAIがOCI上で作られている」–オラクル担当幹部がAIインフラをアピール」についてご紹介します。

関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。

本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。


 OracleでOracle Cloud Infrastructure(OCI)担当エグゼクティブ・バイスプレジデントを務めるMahesh Thiagarajan(マヘシュ・シャガラジャン)氏が都内でグループインタビューに応じた。米国ラスベガスで開催の年次カンファレンス「Oracle CloudWorld 2024」で発表された「OCI Supercluster」をはじめとする同社のAIインフラストラクチャーについて戦略を明らかにした。

 同社のAIインフラは、OCI上で提供されるAIサービスである。生成AI、コンピュータビジョン、予測分析などの高度なAIワークロードを迅速に実行するための機能が含まれる。Thiagarajan氏は「幅広いAIインフラストラクチャーを提供しており、最も要求の厳しいAIワークロードをクラウドで実行される顧客を支援している。Oracleの分散クラウドを活用することで、顧客は最高レベルのデータとAIの主権を維持しながら、クラウドサービスやAIサービスを利用したい場所で柔軟に導入できる」と述べる。

 OCIのAIインフラの特徴としては(1)GPUの性能を極限まで引き出すベアメタルサーバー、(2)大規模にスケール可能なOCI Supercluster、(3)I/Oがボトルネックにならない高性能なストレージ――の3点が挙げられる。

 まず1つ目としては、GPUサーバーをベアメタルインスタンスで提供するため、仮想化によるオーバーヘッドが発生せず、GPUの性能を最大限に引き出すことができる。また、GPUに最適なサーバーをNVIDIAと共同で開発しているという。「われわれは、AIトレーニングのためにベアメタルGPUを提供する唯一のハイパースケーラーだ」とThiagarajan氏は強調する。

 2つ目のOCI Superclusterは、最大13万1072基の「NVIDIA Blackwell GPU」を搭載可能なコンピューティングクラスターである。ピーク性能は最大2.4ゼタFLOPSに達し、米国オークリッジ国立研究所のスーパーコンピューター「Frontier」の3倍以上、他のハイパースケーラーの6倍以上のGPU数を提供するという。また、RDMA over Converged Ethernet version 2(RoCE v2)またはNVIDIA Quantum-2 InfiniBandベースの超低遅延ネットワークにより、「GPUを最大限に活用してもネットワークのボトルネックは発生しない」(Thiagarajan氏)という。

 なお、OCI Superclusterは、「NVIDIA H100/H200 Tensor Core GPU」、またはNVIDIA Blackwell GPUを搭載した「OCI Compute」とともに注文を受け付けている。H100を搭載したシステムは、最大1万6384GPUまで拡張でき、最大65エクサFLOPSの性能と13Pb/sのネットワークスループットを提供する。H200を搭載したシステムは、最大6万5536GPUまで拡張でき、最大260エクサFLOPSの性能と52Pb/sのネットワークスループットを提供し、2024年後半に利用を開始する予定。

 「NVIDIA GB200 NVL72」を搭載した液冷ベアメタルインスタンスは、NVLinkおよびNVLink Switchを使用して、単一のNVLinkドメイン内で最大72基のBlackwell GPUと通信し、129.6TB/sの帯域幅を提供する。2025年前半に利用可能になる予定のNVIDIA Blackwell GPUは、第5世代のNVLink、NVLink Switch、およびクラスターネットワーキングを活用し、単一のクラスター内でシームレスなGPU間通信を実現するとしている。

 3つ目はストレージである。「OCI File Storageサービス」の高性能マウントターゲット(HPMT)を利用することで、1テラバイト当たり最大1Gbpsの高スループットでAIワークロードのストレージアクセスが可能になる。また、「マネージドLustreサービス」の利用によって、1TB当たり最大8Gbpsの超高性能なストレージアクセスも可能になる。現在は早期アクセスを提供しており、2025年2月に一般提供を開始する予定となっている。

 「OCIは顧客のニーズを満たすために、10日ごとに1万GPUという記録的な速さで大量のGPUをデリバリーしている」とThiagarajan氏はアピールし、最大規模の大規模言語モデル(LLM)のうちの4つがOCI上で稼働していることを明らかにした。

 「大手LLMからAIスタートアップまで多くの企業がOCIのAIインフラを使っている。世界中のAIがOCI上で作られているといっても過言ではない」(Thiagarajan氏)

COMMENTS


Recommended

TITLE
CATEGORY
DATE
リモートワークで減った通勤時間の40%は労働時間に–調査で判明
IT関連
2023-02-08 14:37
「これからのビジネスのやり方」について富士通社長は何を語ったか
IT関連
2023-06-02 15:43
法人向けIT事業を強化するKDDI–データ関連ビジネスでの実績を強調
IT関連
2023-09-07 03:14
「Midjourney」にウェブエディターが登場–アップした画像の編集が可能に
IT関連
2024-10-26 16:13
ソニー、音楽を立体音響に変える「360 Reality Audio」に本腰 4000曲以上配信、他社へのライセンスも
くらテク
2021-03-24 10:22
開発者の生産性を最大限まで引き上げる方法–マイクロソフト調査
IT関連
2023-10-31 20:38
ランサムウェアの要求に従うも、データが流出される事例が発生
IT関連
2022-08-27 03:42
MongoDBが時系列データ対応、サーバレス対応、HTTPS経由でのAPI操作対応など機能強化を相次いで発表
MongoDB
2022-06-15 12:53
DeepL、「NVIDIA DGX SuperPOD」導入でサービス強化–欧州で最大規模
IT関連
2023-08-04 19:45
Herokuが次世代プラットフォーム「Fir」発表。OCIコンテナ、Kubernetes、OpenTelemetryなど業界標準の組み合わせで構築
Docker
2024-12-10 21:50
米石油パイプラインColonialが支払ったランサムウェア身代金、米司法省が約2.5億円相当を回収
IT関連
2021-06-08 16:33
マイクロソフト、新「Azure Stack HCI」の国内提供を開始
IT関連
2021-02-26 23:21
「Gemini 1.5」のユースケースを競うコンペ、「Kaggle」で開催中
IT関連
2024-10-30 11:24
日立製作所、SAPのPEOソリューション導入を容易にするテンプレートを開発
IT関連
2022-12-10 01:49