- Google、「かこって検索(Circle to Search)」の新機能として展開を開始した「複数オブジェクトの画像認識」の裏側を解説。
- 1 枚画像に対する 1 回の認識から、1 枚の画像内にある複数オブジェクトの認識に進化。
- コア技術「Fan-out(ファンアウト:扇状に広げる)」プロセスによって実現した技術。
Google は 2026 年 2 月下旬、Android 向けジェスチャー検索機能「かこって検索(Circle to Search)」の新機能となる、「複数オブジェクトの画像認識」を発表し、「Pixel 10」「Pixel 10 Pro」「Pixel 10 Pro XL」「Pixel 10 Pro Fold」と Samsung「Galaxy S26」シリーズ向けに展開を開始しました。
「かこって検索」はこれまでの 1 枚画像に対する 1 回の認識から、1 枚の画像内にある複数オブジェクトの認識に進化したわけですが、これは当然ベースとなる AI モデル「Gemini」の進化によるものです。より高度な「Gemini」AI モデルが導入されたことにより、画像とユーザーの質問を一緒に分析し、マルチモーダルに推論できるようになったことで実現した技術です。
「かこって検索」「Google レンズ」といった Google 画像検索はこれまで、たとえば SNS などで見かけた魅力的なコーディネートの中から「このスニーカーを探す」、あるいはおしゃれなリビングの画像から「このランプを探す」といったように、1 回につき 1 つのアイテムを指定して検索するのが主流でした。しかし最新の AI モデルでは、画像全体を複雑なシーンとして捉え個々の要素を分解して認識し、帽子 / ジャケット / 靴など、画像に写っている複数のアイテムの検索結果を一度の操作で同時に引き出し、ひとつの分かりやすい回答としてまとめて提示することが可能になりました。
この複数オブジェクトの同時認識を支えているコア技術は、「Fan-out(ファンアウト:扇状に広げる)」と呼ばれるプロセスです。ユーザーが画像検索をかけた瞬間、「Gemini」が画像内の複数のオブジェクトとユーザーの意図を推論しつつ複数の検索を同時並行で実行し、数十億の WEB 結果(ライブラリ)から、まさに扇状に検索結果を導き出します。
そして、AI が膨大な情報を数秒で整理してユーザーに返してくれるわけです。これが、「かこって検索」新機能「複数オブジェクトの画像認識」の裏側で起きていることです。
そしてこの「Fan-out」プロセスは「かこって検索」「Google レンズ」だけでなく、「Gemini」アプリや AI 検索サービス「AI モード」のプロンプトでももちろん有効です。
Source:Google












コメントを残す