クアルコム、オンデバイスAI開発者向けライブラリー「AI Hub」を公開
今回は「クアルコム、オンデバイスAI開発者向けライブラリー「AI Hub」を公開」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
2023年には生成AIに対する関心が急激に高まり、開発も急進展したが、AI技術はすでに次の時代を迎えている。私たちが個人的に所有しているデバイスで実行される、オンデバイスAIが広がっているのだ。Qualcommは、モバイル業界の一大イベントであるMobile World Congress(MWC)で、開発者がテスト用デバイスにAIモデルを簡単にダウンロードできるツール「Qualcomm AI Hub」を発表した。
Qualcomm AI Hubには現在75種類以上のAIモデルのライブラリーが登録されており、開発者はそれらのモデルをQualcommのチップを搭載したデバイスに簡単にダウンロードできる。モデルは今後も継続的に追加される予定だ。
ライブラリーには、OpenAIの自動音声認識システムである「Whisper」や、Stability AIのテキスト画像生成モデルである「Stable DIffusion」などの人気のあるモデルも登録されている。Qualcomm AI Hubで提供されるモデルには、ハードウェアに合わせて、オンデバイスAIの性能を高めるための最適化が自動的に施される。
これらのモデルには、「Qualcomm AI Engine」内で取り扱うことができるすべてのコア(NPU、CPU、GPU)を最大限に活用できるような改善が施されており、低電力消費、メモリ使用量の低減、最大で4倍の推論速度を実現しているという。
オンデバイスAIの利点は、全体的にアプリケーションのパフォーマンスが向上することに加え、クラウドとのやりとりを回避することができるため、プライバシーが向上することだ。この特徴は、秘密を要するデータやプロプライエタリなデータを使用するモデルを作成する場合に役立つ。
Qualcommの技術計画およびエッジソリューション担当シニアバイスプレジデント兼ジェネラルマネージャーを務めるDurga Malladi氏は、「Qualcomm AI Hubは、開発者に包括的なAIモデルライブラリーを提供し、事前に最適化されているAIモデルを素早く簡単にアプリケーションに統合できるようにすることで、より高速で信頼性が高く、プライバシーが保たれたユーザー体験を実現する」と述べている。
Qualcommはすでに、Qualcomm AI Hub、GitHub、Hugging Faceで最適化済みモデルの提供を始めている。AI Hubのユーザー登録はすでに始まっている。