生成AI市場で話題の「蒸留」とは? 関連を指摘されるDeepSeekの最新情報
今回は「生成AI市場で話題の「蒸留」とは? 関連を指摘されるDeepSeekの最新情報」についてご紹介します。
関連ワード (CIO/経営、PDF Report at ZDNet Japan等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
生成AI市場においてOpenAIの優位性が固まったかに見えたところで、急速に存在感を示しているのが中国AI開発企業であるDeepSeekだ。DeepSeekが開発した大規模言語モデルの「DeepSeek-R1」は、OpenAIの同等モデル「o1」と比べて、運用コストが大幅に低いと言われる。性能面でもDeepSeek-R1は、数学的推論やプログラミングにおいて、OpenAIのモデルと同等以上の性能を示すという。
このほか、DeepSeekはオープンソースで提供し、開発者や研究者が自由に利用し、改良、再配布できるようにしていること、高性能なチップを使わなくても低コストでトレーニングできる点などが指摘されている。
生成AI領域では、現在「蒸留」という言葉が話題を集めている。これは、大規模な生成AIモデルを小型化し、推論速度を向上させながら精度を維持するための技術である。具体的には、大規模かつ高性能な「教師モデル」から知識を抽出し、それをパラメーター数の少ない「生徒モデル」として移転することを指す。DeepSeekもこの手法を用いることで、安価かつ高い性能を持つAIモデルを構築したのではないかと指摘されている。
AI向けGPUで一強とも言われたNVIDIAの株価が、DeepSeekの登場による高性能半導体への需要減少見込みにより、急落したことなどでも話題となった。DeepSeekについての最新情報が分かる記事を集めた。