画像検索結果にナレッジグラフ情報

Googleの画像検索結果に対象画像の関連情報が表示されるようになるとのことです。とりあえず米国のGoogleモバイル検索だけが対象のようですが、Googleが米国現地時間7月8日に発表しました。

画像検索

ふわふわ

ナレッジグラフの情報から画像情報を紹介

Googleではナレッジグラフという情報データベースを保有しており、それを元に検索結果にナレッジパネル等の表示を行っていたりしますが、そのナレッジグラフの情報データベースから画像検索結果に情報を表示するようになりました。

近年、Google画像検索は画像そのものの情報も越えて検索出来るくらいより便利になりました。例えば、検索結果のサムネイル画像にキャプションが付いたり、Google Lens機能によって見つけた画像の中から検索ができたり、関連画像の機能から似た画像を見つけたり出来るようになりました。これらの取り組みは、ユーザーが視覚的なインスピレーションを受けて、より簡単に新しいことを学んだり、新しい情報を得られたりすることを目的としている、という共通のゴールがあります。

今週から、Google画像検索で見られる画像について、より簡単に情報を見つけることが出来る新しい機能が追加されます。米国でモバイル画像検索すると、検索結果に関連付くナレッジグラフの情報が表示されることがあります。この情報には、ナレッジグラフのデータベースに登録されている数十億もの情報の中から、その画像に関する人物、場所、物などが含まれており、探しているトピックについて深く掘り下げることが出来ます。

例えば、近くにある美しい州立公園州立公園を検索しているとしましょう。滞在中に泳ぎたいと思い、川が映った公園の画像をタップします。写真の下には、川の名前や公園がある都市などの関連するトピックが表示されます。特定のトピックをタップすると、そのトピックが参照している人物や場所、物についての短い説明が表示され、さらに詳しい情報や他の関連トピックについてのリンクが表示されます。この情報により、閲覧画像についてより理解が深まり、Webページが検索に関連しているかどうか分かるでしょう。

表示例

もしくは、家のリノベーションや建築のヒントを得るために、有名な建築家の作品についての情報を探していることもあるかもしれません。建築家が受賞した賞についての記事を見つけて、その賞の由来となった女性について簡単に知ることが出来るかもしれません。

表示例②

関連するナレッジグラフのエンティティのリンク表示ができるようになるべく、Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。この情報は、特定の画像についての人物や場所、物について判断する時に役立ちます。これらの情報を既存のナレッジグラフの情報データベースと照合し、一致するものが見つかったと判断した場合にGoogle画像検索に表示されます。

この機能は、Google画像検索の一部の人物、場所、物の画像において表示され始め、今後時間をかけながらより多くの画像や言語でも適用されるようになります。ぜひご自身の目でお試しいただき、Web上の画像から新しい情報を探してみてはいかがでしょうか。

引用)The Keywordより和訳

つまりまとめると以下の通りです。

  • 米国でのモバイルにおけるGoogle画像検索が対象
  • 検索結果の画像をどれかタップした時に表示される画像に情報が表示
  • 表示情報はナレッジグラフに蓄積されたエンティティから選定される
  • 画像自体の解析や周辺の文字情報から解析された情報がナレッジグラフのエンティティと合致した時に関連情報として表示
  • 今後はもっと多くの画像を対象にする
  • 今後はもっと多くの国や言語を対象にする

ふわふわ

いよいよ画像理解も深まる!?

GoogleはGoogle Lensに代表されるように、画像情報のエンティティを元に、ある程度画像の中身を判断できるはずです。少なくともGoogle Lensを使えばスマホのカメラにかざした文字情報を翻訳してくれたりできますので、画像内の文字程度であれば分かるはずです。しかし、それがGoogle検索に利用されているかどうかは定かではありませんでした。

ただ、私には今回の記事の最後のほうにヒントが隠されていた気がします。

Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。

これって、Google Lensの機能とGoogle検索の機能を表していますよね。つまり、ディープラーニングによって画像内容を理解しつつある情報が検索に明確に採用されているわけです。ということは、もう雪崩式に今後Google検索や検索ランキングにも活用されていくのではないでしょうか。

つまり、いずれテキストによる文字情報が無くても――テキスト文字を画像化した内容でもGoogleは理解しランキングするようになるのではないでしょうか。そうなれば多少、コピペによるスパムページは減るかもしれませんし、Webページの世界観の演出幅も広がるようになる気がします。

まだ先の話かもしれませんが、今後はもっともっと技術的なデザイン力も重要になっていくかもしれませんね。


関連記事

ページエクスペリエンスのおさらい

GoogleのCore Web Vitalsの導入が2021年5月に導入されます。伴ってページエクスペリエンスを達成しているWebページには検索結果のスニペットに何かしらのマークがされるということも発表されています。そこで、あらためてページエクスペリエンスについて記事にしておこうかと思います。 ペー ...(続きを読む)

SEOの勉強は何から始める?

「今年こそSEOの勉強を始めます!そこで、何から見ていけば良いでしょうか?」というご質問を結構受けます。聞く人によっては「何から見ていけば良いか、って聞いてくる段階でセンス無い」とか「依存心が強い」とか思うかもしれませんが、私はSEOの勉強を始めると言われるだけで嬉しいので、ちゃんと答えています。そ ...(続きを読む)

GSCでGoogleニュース確認

Googleニュースで表示された検索パフォーマンスに関して、Search Consoleで確認できるようになりました。Google検索セントラルブログで発表されています(日本語版です)。一応注意点含め私からもご紹介しておきます。 対象はGoogle検索のニュースタブ検索結果ではない 今回、Searc ...(続きを読む)

インデックスカバレッジが改良

Googleは米国現地時間の1月11日、Search Central BlogでSearch Consoleのインデックスカバレッジデータを改善したと発表しました。日本語版はまだですので和訳してご紹介します。 Googleからの発表内容 Search Central Blogでは以下のように案内され ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。