マイクロソフトのナデラCEO、「技術スタックの全階層にAIを搭載」と語る
今回は「マイクロソフトのナデラCEO、「技術スタックの全階層にAIを搭載」と語る」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Microsoftが米国時間1月24日夜に開いた、第2四半期決算に関するアナリストらとの電話会見の中で、最高経営責任者(CEO)のSatya Nadella氏は、OpenAIに対する出資がMicrosoftにとって何を意味するかについて、おそらくこれまでで最も広大な自身のビジョンを語った。サンフランシスコを拠点とするOpenAIは、爆発的な人気を誇る「ChatGPT」の開発元だ。
OpenAIはコンピューティングの次なる波を構成するものだと、同氏は述べた。「次なる大きなプラットフォームの波は、これまでにも述べたようにAIであり、その波をつかむことができただけで、多大な企業価値が創出されるとも、われわれは強く確信している。その波は、われわれの技術スタックのすべての部分に影響を与えるとともに、新しいソリューションと新しい機会を創出する」(同氏)
それに向けてMicrosoftは、「生産性であれコンシューマーサービスであれ、スタックのすべての階層にAIを組み込むことを全面的に推進しており、その取り組みに心躍らせている」という。
Nadella氏はOpenAIとの提携について、「投資という側面や、商業的提携という側面もあるが、根本的にはAIで主導することによって、Microsoftの個々のすべてのソリューションにおけるイノベーションと競争的差別化を促進するものになるだろう」と述べた。
現時点で、OpenAIによって開発された代表的なアプリケーションは、「GitHub CoPilot」だ。これは、プログラマーによるコーディング作業をニューラルネットによって支援するというもの。「GitHub Copilotは実際、今日市場にある製品を基に考えると、最も大規模なLLMだと言える」と、Nadella氏は述べた。大規模言語モデル(LLM)とは、言語を処理するニューラルネットを指す業界用語だ。
ChatGPTの機能の一部を担うOpenAIの「GPT-3」は、パラメーター(ニューラルネットワークの「重み」)の数を指標とすると、世界最大級の大規模言語モデルの1つだ。
「(Microsoftは)ChatGPTのサポートを近いうちに追加する。これによって顧客は初めて、独自のアプリケーションの中でそれを使用できるようになる」と、Nadella氏は述べた。
「Azure」では最近、開発者がOpenAIのAIモデルにアクセスする手段となる「Azure OpenAI Service」が提供開始され、「KPMGやAl Jazeeraなど、200を超える顧客が既にこれを利用している」という。
Nadella氏は、同社がこの技術を、「Synapse」などのMicrosoftの製品にさらに組み込む予定であることを示唆した。Synapseは、Microsoftの包括的なデータベースアプローチで、分析に向けてデータをグループ化する一般的な手段である「データウェアハウス」や「データレイク」などを可能にして、それらのキュレーションされたデータベースに対するクエリパフォーマンスを上げるものだ。
「Azure OpenAI Serviceを超えるデータサービスが当社から提供されることになる」と、Nadella氏はアナリストらに語り、「SynapseとOpenAI APIの組み合わせによって何が可能になるかを想像してほしい」と述べたが、詳しい説明はしなかった。
同氏はアナリストらに対して、顧客はクラウド支出を引き締めていると語りつつも、Microsoftは、OpenAIやその他のAI機能への投資を続けると述べた。