画像検索結果にナレッジグラフ情報

Googleの画像検索結果に対象画像の関連情報が表示されるようになるとのことです。とりあえず米国のGoogleモバイル検索だけが対象のようですが、Googleが米国現地時間7月8日に発表しました。

画像検索

ふわふわ

ナレッジグラフの情報から画像情報を紹介

Googleではナレッジグラフという情報データベースを保有しており、それを元に検索結果にナレッジパネル等の表示を行っていたりしますが、そのナレッジグラフの情報データベースから画像検索結果に情報を表示するようになりました。

近年、Google画像検索は画像そのものの情報も越えて検索出来るくらいより便利になりました。例えば、検索結果のサムネイル画像にキャプションが付いたり、Google Lens機能によって見つけた画像の中から検索ができたり、関連画像の機能から似た画像を見つけたり出来るようになりました。これらの取り組みは、ユーザーが視覚的なインスピレーションを受けて、より簡単に新しいことを学んだり、新しい情報を得られたりすることを目的としている、という共通のゴールがあります。

今週から、Google画像検索で見られる画像について、より簡単に情報を見つけることが出来る新しい機能が追加されます。米国でモバイル画像検索すると、検索結果に関連付くナレッジグラフの情報が表示されることがあります。この情報には、ナレッジグラフのデータベースに登録されている数十億もの情報の中から、その画像に関する人物、場所、物などが含まれており、探しているトピックについて深く掘り下げることが出来ます。

例えば、近くにある美しい州立公園州立公園を検索しているとしましょう。滞在中に泳ぎたいと思い、川が映った公園の画像をタップします。写真の下には、川の名前や公園がある都市などの関連するトピックが表示されます。特定のトピックをタップすると、そのトピックが参照している人物や場所、物についての短い説明が表示され、さらに詳しい情報や他の関連トピックについてのリンクが表示されます。この情報により、閲覧画像についてより理解が深まり、Webページが検索に関連しているかどうか分かるでしょう。

表示例

もしくは、家のリノベーションや建築のヒントを得るために、有名な建築家の作品についての情報を探していることもあるかもしれません。建築家が受賞した賞についての記事を見つけて、その賞の由来となった女性について簡単に知ることが出来るかもしれません。

表示例②

関連するナレッジグラフのエンティティのリンク表示ができるようになるべく、Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。この情報は、特定の画像についての人物や場所、物について判断する時に役立ちます。これらの情報を既存のナレッジグラフの情報データベースと照合し、一致するものが見つかったと判断した場合にGoogle画像検索に表示されます。

この機能は、Google画像検索の一部の人物、場所、物の画像において表示され始め、今後時間をかけながらより多くの画像や言語でも適用されるようになります。ぜひご自身の目でお試しいただき、Web上の画像から新しい情報を探してみてはいかがでしょうか。

引用)The Keywordより和訳

つまりまとめると以下の通りです。

  • 米国でのモバイルにおけるGoogle画像検索が対象
  • 検索結果の画像をどれかタップした時に表示される画像に情報が表示
  • 表示情報はナレッジグラフに蓄積されたエンティティから選定される
  • 画像自体の解析や周辺の文字情報から解析された情報がナレッジグラフのエンティティと合致した時に関連情報として表示
  • 今後はもっと多くの画像を対象にする
  • 今後はもっと多くの国や言語を対象にする

ふわふわ

いよいよ画像理解も深まる!?

GoogleはGoogle Lensに代表されるように、画像情報のエンティティを元に、ある程度画像の中身を判断できるはずです。少なくともGoogle Lensを使えばスマホのカメラにかざした文字情報を翻訳してくれたりできますので、画像内の文字程度であれば分かるはずです。しかし、それがGoogle検索に利用されているかどうかは定かではありませんでした。

ただ、私には今回の記事の最後のほうにヒントが隠されていた気がします。

Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。

これって、Google Lensの機能とGoogle検索の機能を表していますよね。つまり、ディープラーニングによって画像内容を理解しつつある情報が検索に明確に採用されているわけです。ということは、もう雪崩式に今後Google検索や検索ランキングにも活用されていくのではないでしょうか。

つまり、いずれテキストによる文字情報が無くても――テキスト文字を画像化した内容でもGoogleは理解しランキングするようになるのではないでしょうか。そうなれば多少、コピペによるスパムページは減るかもしれませんし、Webページの世界観の演出幅も広がるようになる気がします。

まだ先の話かもしれませんが、今後はもっともっと技術的なデザイン力も重要になっていくかもしれませんね。


関連記事

Search On 2020の内容

米国現地時間10月15日にGoogleがオンライン開催したSearch On 2020。このフォローアップ記事がThe Keywordに掲載されていますので、和訳しながらご紹介したいと思います。結構長いので、挫けず頑張ります...。 The Keywordより ブログ掲載されている内容をまずは和訳し ...(続きを読む)

文節(passages)単位でマッチング

Googleは検索クエリに対するマッチングとして、ただのページ単位での概念でなく、コンテンツの一節のみでも最適な回答になっていると判断した場合、検索上位に影響してくる旨を発表しました。Search Onのイベント内で発表したようですが、Twitterでもフォローアップしていましたので、ご紹介したいと ...(続きを読む)

今後のコンテンツと目次

Googleのニューラルマッチングシステムの技術により、検索クエリを通して検索者を理解する概念が高まっています。検索者を理解する概念というのは、つまり「どんな人によるニーズか」という概念です。そして、その概念が、(今度はRankBrainによって概念化された)コンテンツとどうマッチングして検索ランキ ...(続きを読む)

鼻歌検索

いよいよGoogle検索を通して鼻歌で曲を探すことができるようになりました。(Googleアシスタント等に入力される)音声検索で音の連鎖でマッチングした結果を表示するようです。米国現地時間10月15日にGoogleが発表しました。 Googleの発表内容 The Keywordで発表されたGoogl ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。