Meta、画像内の物体を識別するAIモデル「Segment Anything Model」を公開
今回は「Meta、画像内の物体を識別するAIモデル「Segment Anything Model」を公開」についてご紹介します。
関連ワード (ソフトウェア等) についても参考にしながら、ぜひ本記事について議論していってくださいね。
本記事は、ZDNet Japan様で掲載されている内容を参考にしておりますので、より詳しく内容を知りたい方は、ページ下の元記事リンクより参照ください。
Metaはここ最近、生成型人工知能(AI)関連のニュースで大きな注目を浴びる機会がなかった。しかし米国時間4月5日、今後のAIに大きな影響を与える可能性を秘めた、画像セグメンテーションに関するプロジェクトを発表した。
画像セグメンテーションとは簡単に言うと、画像内のさまざまな物体を識別することだ。例えば、箱に入った果物の写真がある場合、画像セグメンテーションを用いたAIモデルは、Metaのデモで示されているように、個々の果物と箱を識別できるようになる。
Metaによると同社の「Segment Anything」プロジェクトには、「セグメンテーションの民主化」に向けた画像セグメンテーション用の新たなタスクや、データセット、モデルが含まれているという。
Metaは今回、汎用の「Segment Anything Model(SAM)」と、同社として最大となるセグメンテーションデータセット「Segment Anything 1-Billion(SA-1B)」をリリースした。SA-1Bには、プライバシーに配慮したライセンス済みの1100万枚の画像と、それに対応した10億件を超えるセグメンテーションマスクが含まれている。
Metaは今回の発表に、「幅広い応用を可能にし、コンピュータービジョンの基盤モデルに向けた研究をさらに推し進めるために」(SAMとSA-1Bを)リリースしたと記している。
画像セグメンテーションは、写真の加工や、科学的な画像分析、より大規模かつ世界を汎用的に知覚できるマルチモーダルなAIシステム、さらに興味深いところでは仮想現実(VR)や拡張現実(AR)といった領域で活用できる。
これまでのセグメンテーションモデルでは、対話的なセグメンテーション作業を通じて人間が指針を示したり、自動的なセグメンテーションを実行するために、手作業でアノテーションを付加した大量のオブジェクトを用いて訓練しておく必要があった。
SAMは、どちらのセグメンテーション手法も容易に適用できる単一モデルとなっている。このため、訓練担当者が独自のセグメンテーションデータを収集しておかなくても済むようになるとともに、ユースケースに合わせてモデルの微調整をする必要がなくなる結果、時間と労力の低減が可能になる。
このテクノロジーを試用できるよう、Segment Anythingのデモページが用意されている。このページにアクセスし、自らで用意した画像をアップロードするか、ギャラリーの写真を利用してみてほしい。