レッドハットのライトCTO、AIやIOWNなどの取り組みについて語る
今回は「レッドハットのライトCTO、AIやIOWNなどの取り組みについて語る」についてご紹介します。
関連ワード (ITインフラ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
レッドハットは10月16日、東京都内で開催した年次イベント「Red Hat Summit:Connect Japan」に合わせて来日した米Red Hat 最高技術責任者(CTO)のChris Wright氏による報道機関向けの説明会を行った。Wright氏は、同社が一貫して取り組む「オープン・ハイブリッドクラウド」戦略に加え、最近のトピックとしてAIや次世代通信基盤「IOWN」に関する同社の取り組みも説明した。
Wright氏は、まずAIについて「オートメーションのためのツール」と位置付けており、「ユーザーの生産性向上のためのツールとして、AIをわれわれのプラットフォームに組み込んだ」と説明した。
同社は、これまでも「Ansible」などのツールによる自動化に投資しており、Wright氏は「企業にとってのミッションクリティカルなコンポーネントという地位に自動化ツールを引き上げた」と自負を示したす。一方で、従来の自動化ツールの主な利用が部門単位などであり、全社規模に拡大しようとすると運用管理が複雑になるなどの課題があることを踏まえ、こうした課題をAIの支援によって解決する意図があると語った。
同社のAIに対する取り組みは、「Red Hat Enterprise Linux AI」(RHEL AI)のほか、「Red Hat OpenShift AI」でも行われる。RHEL AIはOSレベルのAIサポートになり、Wright氏は「RHELの基盤上にAIワークロードのためのサポートを追加したものだ」と説明した。
これには、IBMの大規模言語モデル(LLM)の「Granite」をあらかじめ組み込んだ形で提供する。主なユースケースには、オンプレミス環境で社内データを学習させたAIシステムを開発、運用する場合などを想定。なお、この提供はOEMパートナーとの協業に基づき、サーバー製品にプリインストールされた形での販売になる。米国では、9月にLenovoが「ThinkSystem SR675 V3サーバ」にRHEL AIを搭載して発売することが発表された。
一方で、同社のKubernetes環境である「OpenShift」でAIをサポートするRed Hat OpenShift AIは、RHEL上で動作するコンテナー基盤の位置付けとなるため、クラウドネイティブなモダンアプリケーションとして、AIアプリケーションを構築する場合はRHEL AIよりRed Hat OpenShift AIの方が身近に感じられるのではないだろうか。
とはいえ、Red Hat OpenShift AIからGPUを使う場合、ハードウェアの制御は、RHEL AIの機能を通じて実行する形になる。RHEL AIとOpenShift AIは密接に連携して、独立した製品というよりも各レイヤーで必要となるAIサポート機能をそれぞれに実装したものと見る方が自然だろう。
また、RHEL AIではモデルにGraniteを採用しているが、OpenShift AIではユーザーが好みのAIモデルをOpenShift上で実行する形になっている。AIアプリケーションの多くは、クラウドネイティブなアプリケーションとしてコンテナープラットフォーム上で稼働することから、こうした構成になるのはむしろ当然と言えそうだ。RHEL AIがオンプレミス環境での「単一AIモデル、単一AIワークロード」を想定したのに対し、OpenShift AIはオンプレミス/プライベートクラウド/パブリッククラウドでの運用も想定し、さまざまなAIのモデルやワークロードの実行をホストする基盤として利用されることが想定される。