グーグル、自己回帰による超リアルな画像生成モデル「Parti」を発表
今回は「グーグル、自己回帰による超リアルな画像生成モデル「Parti」を発表」についてご紹介します。
関連ワード (ビッグデータ等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Googleは米国時間6月22日、テキストから画像を生成するコンピューターモデル「Parti」を発表した。数百億件の入力情報を解析して超リアルな画像を描画する。
Partiは「Pathways Autoregressive Text-to-Image」(自己回帰によるテキストから画像への変換)の略で、Googleが「イメージトークン」と呼ぶ画像セットを解析し、それらを使って新しい画像を構成するという。同社の研究部門Google Researchがウェブサイトで説明している。Partiで生成される画像は、解析するパラメーター(トークンなどの学習素材)が多いほどリアルになる。パラメーターが最大200億個に達するまでクオリティは向上するという。
Partiは、同様にテキストから画像を生成するモデル「Imagen」とは異なる。ImagenはGoogleが設計した人工知能(AI)システムで、拡散(diffusion)学習を利用する。いわばテレビ画面の砂嵐のように、画像に「ノイズ」を加えて画像を見えなくすることで、コンピューターモデルを学習させる仕組みだ。その後、デコード処理によって元の画像を再現することを学習する。モデルの向上に伴い、ランダムな点の集まりのように見えるものを画像に変換できるようになる。
Googleは、AIのデータセットにバイアスがかかる危険があるとしてPartiやImagenを一般に公開していない。データセットは人が作成するため、無意識のうちに固定観念に偏ったり、特定の集団に関する表現が歪んだりする恐れがある。同社によると、PartiとImagenはどちらも欧米の固定観念に偏っているという。