PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載
今回は「PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載」についてご紹介します。
関連ワード (今後、公開、実行等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、Publickey様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました。
MAX Developer Edition Preview has officially launched! It's a drop-in replacement for running and serving @PyTorch, @tensorflow and @onnxai models much faster and leverages the power Mojo for extensibility. Check out the blog posthttps://t.co/z6Nul9DADk
— Modular (@Modular) February 29, 2024
MAXは、AIの推論処理を高速に実行する「MAX Engine」、推論処理にアクセスするためのAPIなどのサービングシステムを提供する「MAX Serving」、そして高速な処理を実現するPython互換のプログラミング言語「Mojo」から構成されています。
MAXは2023年12月のイベント「ModCon ’23」で発表され、今回デベロッパーエディションが公開されました。
今回の注目点はMAX Engineが公開されたことでしょう。
MAX Engineは、推論処理を高速化するコンパイラおよびランタイムです。PyTorch、TensorFlow、ONNX形式のAIモデルであるMistral、Stable Diffusion、Llama2、WevLM、MLMR、ClipVitなどをサポートしており、これらの推論処理をMAX Engineに置き換えることで最大5倍高速なAI処理を実現します。
Modular社はベンチマーク結果も公開しており、Mistral-7Bは3.3倍、Stable Diffusionは1.7倍、Llamaでは2.3倍、MAX Engineの方が高速だとしています。
MAXのためのMAX SDK Developer Editionは現時点でUbuntu Linux版のみで、今後macOS版、Windows版のリリースも予定されています。
ただしMojo言語はすでにLinux版、macOS版が公開されています。
- Pythonの高速なスーパーセットをうたう新言語「Mojo」、コンパイラなど公開、ローカル環境で利用可能に
- 高速なPython互換言語「Mojo」のMac版登場、Appleシリコンにネイティブ対応。Pythonの9万倍、C言語に比肩する高速性
また今後は本番環境で利用可能なEnterprise Editionの提供、GPUへの対応なども進めていくとしています。
関連記事
- 高速なPython互換言語「Mojo」を用いたAIプラットフォーム「MAX」発表。ModCon ’23