レッドハットの新たな製品戦略–AIを軸にシステム管理者の負担軽減
今回は「レッドハットの新たな製品戦略–AIを軸にシステム管理者の負担軽減」についてご紹介します。
関連ワード (サーバー等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
テクノロジーやビジネスのプレスリリースの冒頭で、「ついにAIを搭載!」というフレーズが使われなくなったら、筆者は大いに喜ぶだろう。このフレーズは多くの場合、単なるリップサービスだが、Red Hatは少し違う。同社はAIを製品ライン全体に統合しようとしており、これには「Red Hat Enterprise Linux AI」(RHEL AI)、「Red Hat OpenShift AI」「Red Hat Ansible Automation Platform」などがある。ここでは、各製品の機能と相互連携について解説する。
Red HatのAIへの取り組みは、先ごろの発表ラッシュのかなり前から進行していた。同社初の本格的なAI製品は、自動化に特化した基盤モデルを備える生成AIサービス「Red Hat Lightspeed」だった。Lightspeedは、自然言語処理(NLP)を使用してプロンプトをコードに変換する。まずAnsibleのDevOpsプログラムに搭載され、複雑なシステム管理ジョブの簡素化に利用された。特に「Ansible Playbook」の作成を分かりやすくすることを目的としていたサービスだ。
今後、RHEL AIはRed Hatの基盤を成すAIプラットフォームとなる。現在開発者プレビュー段階にあるRHEL AIは、生成AIモデルの開発、テスト、展開を合理化できるように設計されている。この新たなプラットフォームは、IBM Researchのオープンソースライセンスの大規模言語モデル(LLM)ファミリー「Granite」、LAB手法に基づく「InstructLab」のアライメントツール、InstructLabプロジェクトによる協調的なモデル開発アプローチを融合するものだ。
IBM Researchが開発したLAB手法は、合成データ生成と多段階チューニングによって、AI/MLモデルの調整における高コストの手作業を低減する。InstructLabコミュニティーで洗練されたLABアプローチにより、開発者は他のオープンソースプロジェクトと同じようにLLMを構築し、貢献することができる。
InstructLabの立ち上げに伴い、IBMはGraniteの厳選した英語版モデルとコードモデルをApacheライセンスの下でリリースし、トレーニングとコミュニティーへの貢献のために、透明性のあるデータセットを提供した。Granite 7B英語版モデルがInstructLabに統合されており、ユーザーが共同でその機能を強化することができる。
RHEL AIは、全社規模での導入を簡素化することを目的としており、ハイブリッドクラウド環境へのサーバー展開用に、全面的に最適化された起動可能なRHELイメージを提供する。これらの最適化された起動可能なモデルランタイムインスタンスが、GraniteモデルやInstructLabツールパッケージと連携する。これには、最適化された「Pytorch」ランタイムライブラリーのほか、「AMD Instinct MI300X」、IntelとNVIDIAのGPU、「NeMo」フレームワーク向けのGPUアクセラレーターが含まれる。
RHEL AIは、Red Hatの機械学習運用(MLOps)プラットフォームであるOpenShift AIにも統合されており、分散クラスターでの大規模モデルの実行が可能だ。
RHEL AIはLightspeedを使用して、RHELインスタンスの展開、管理、保守も支援する。たとえば、Red Hatが「Red Hat Summit」で実施したデモでは、共通脆弱性識別子(CVE)のセキュリティパッチをチェックして、システムにパッチを適用するよう指示できることが紹介された。
次はOpenShift AIだ。RHEL AIが含まれるOpenShift AIにより、ワークフローの拡張や、「Kubernetes」を利用したMLOpsでのモデル管理が可能になる。IBMの「watsonx.ai」エンタープライズスタジオのユーザーは、この統合から利点を得られ、改善されたモデルガバナンスや価格設定を利用することができる。
RHEL AIと同様に、この新しいAI対応バージョンのOpenShift(Red HatのKubernetesディストリビューション)には、Lightspeedが含まれているため、使いやすいOpenShiftとなっている。たとえば、新規アプリケーションの展開方法、自動スケーリングを使用するタイミング、クラウドインスタンスの適切なサイズなどが提案される。さらに、アプリケーションの監視機能を備えており、稼働から一定時間が経過したアプリの性能要件が予想よりも低い場合、Lightspeedがアプリのリソースを自動的にスケールダウンする。
Red Hatのシニアバイスプレジデント兼最高製品責任者(CPO)のAshesh Badani氏は、つまり、「Red Hat Lightspeedにより、本番環境に対応したAIが、最大限のイノベーションを迅速に提供できるユーザー、すなわちIT組織の手に渡る」と語った。
最後に、Red HatはAnsibleで、「Policy as Code」を自社の機能群に追加した。その理由について、Ansibleのバイスプレジデント兼ゼネラルマネージャーのSathish Balakrishnan氏は、AIが個々のシステムの機能を拡張し、人間が管理できる範囲を超えていくにつれて、ITインフラストラクチャーの保守という課題がさらに困難なものになっている、と説明した。
Balakrishnan氏の立場からすると、「AIは自動化導入プロセスの最終段階だ。エンタープライズIT運用という文脈において、AIは機械によるプロセス自動化、インフラストラクチャーとツールの接続による効率化、そして回復力の向上とコストの削減についての意思決定を意味する」
Red Hatは、AIを使用してPolicy as Codeを自動化することで、新しいAnsibleが新規ITプロジェクトの開始時に社内外で義務づけられたポリシーを効率的に適用し、その運用を大きな規模で管理できると考えている。
これにはすべてのプログラムを結び付けるという1つのテーマがある、と感じたとしたなら、その印象は正しい。Red HatはAIを使用してシステム管理者の負担を軽減しようとしている。確かに、RHELとOpenShiftでAIプログラムを構築できるようになるが、Red Hat AIが短期的に目指しているのは、同社のソフトウェアファミリー全体を、すべての顧客にとって管理しやすいスマートなソフトウェアスタックに統合することだ。