画像検索結果にナレッジグラフ情報

Googleの画像検索結果に対象画像の関連情報が表示されるようになるとのことです。とりあえず米国のGoogleモバイル検索だけが対象のようですが、Googleが米国現地時間7月8日に発表しました。

画像検索

ふわふわ

ナレッジグラフの情報から画像情報を紹介

Googleではナレッジグラフという情報データベースを保有しており、それを元に検索結果にナレッジパネル等の表示を行っていたりしますが、そのナレッジグラフの情報データベースから画像検索結果に情報を表示するようになりました。

近年、Google画像検索は画像そのものの情報も越えて検索出来るくらいより便利になりました。例えば、検索結果のサムネイル画像にキャプションが付いたり、Google Lens機能によって見つけた画像の中から検索ができたり、関連画像の機能から似た画像を見つけたり出来るようになりました。これらの取り組みは、ユーザーが視覚的なインスピレーションを受けて、より簡単に新しいことを学んだり、新しい情報を得られたりすることを目的としている、という共通のゴールがあります。

今週から、Google画像検索で見られる画像について、より簡単に情報を見つけることが出来る新しい機能が追加されます。米国でモバイル画像検索すると、検索結果に関連付くナレッジグラフの情報が表示されることがあります。この情報には、ナレッジグラフのデータベースに登録されている数十億もの情報の中から、その画像に関する人物、場所、物などが含まれており、探しているトピックについて深く掘り下げることが出来ます。

例えば、近くにある美しい州立公園州立公園を検索しているとしましょう。滞在中に泳ぎたいと思い、川が映った公園の画像をタップします。写真の下には、川の名前や公園がある都市などの関連するトピックが表示されます。特定のトピックをタップすると、そのトピックが参照している人物や場所、物についての短い説明が表示され、さらに詳しい情報や他の関連トピックについてのリンクが表示されます。この情報により、閲覧画像についてより理解が深まり、Webページが検索に関連しているかどうか分かるでしょう。

表示例

もしくは、家のリノベーションや建築のヒントを得るために、有名な建築家の作品についての情報を探していることもあるかもしれません。建築家が受賞した賞についての記事を見つけて、その賞の由来となった女性について簡単に知ることが出来るかもしれません。

表示例②

関連するナレッジグラフのエンティティのリンク表示ができるようになるべく、Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。この情報は、特定の画像についての人物や場所、物について判断する時に役立ちます。これらの情報を既存のナレッジグラフの情報データベースと照合し、一致するものが見つかったと判断した場合にGoogle画像検索に表示されます。

この機能は、Google画像検索の一部の人物、場所、物の画像において表示され始め、今後時間をかけながらより多くの画像や言語でも適用されるようになります。ぜひご自身の目でお試しいただき、Web上の画像から新しい情報を探してみてはいかがでしょうか。

引用)The Keywordより和訳

つまりまとめると以下の通りです。

  • 米国でのモバイルにおけるGoogle画像検索が対象
  • 検索結果の画像をどれかタップした時に表示される画像に情報が表示
  • 表示情報はナレッジグラフに蓄積されたエンティティから選定される
  • 画像自体の解析や周辺の文字情報から解析された情報がナレッジグラフのエンティティと合致した時に関連情報として表示
  • 今後はもっと多くの画像を対象にする
  • 今後はもっと多くの国や言語を対象にする

ふわふわ

いよいよ画像理解も深まる!?

GoogleはGoogle Lensに代表されるように、画像情報のエンティティを元に、ある程度画像の中身を判断できるはずです。少なくともGoogle Lensを使えばスマホのカメラにかざした文字情報を翻訳してくれたりできますので、画像内の文字程度であれば分かるはずです。しかし、それがGoogle検索に利用されているかどうかは定かではありませんでした。

ただ、私には今回の記事の最後のほうにヒントが隠されていた気がします。

Googleは画像の視覚解析シグナルと文字解析シグナルによって評価するディープラーニングによって理解した画像情報と、画像があるWebページ内のテキスト内容から理解した情報とを組み合わせています。

これって、Google Lensの機能とGoogle検索の機能を表していますよね。つまり、ディープラーニングによって画像内容を理解しつつある情報が検索に明確に採用されているわけです。ということは、もう雪崩式に今後Google検索や検索ランキングにも活用されていくのではないでしょうか。

つまり、いずれテキストによる文字情報が無くても――テキスト文字を画像化した内容でもGoogleは理解しランキングするようになるのではないでしょうか。そうなれば多少、コピペによるスパムページは減るかもしれませんし、Webページの世界観の演出幅も広がるようになる気がします。

まだ先の話かもしれませんが、今後はもっともっと技術的なデザイン力も重要になっていくかもしれませんね。


関連記事
Googleは画像ライセンスに関する構造化データのマークアップに関して、2020年2月に導入して以来、ずっと開発中でした(マークアップしておくことはできた)。ベータ版というのはそのままですが、この度、その画像ライセンスに関して、リッチリザルトテストツールで検証でき、Google Search Con ...(続きを読む)
Googleは、従来のAMPテストツールに関して、ウェブストーリー化できているかの確認もできるようになったと発表しました。ウェブストーリーはもともとAMPストーリーと呼ばれていたものでして、検索結果から対応しているサイトページ内の画像や動画のスライドショーを閲覧できる機能(Instagramストーリ ...(続きを読む)
今年3月にGoogleは9月に全サイトページを強制的にモバイルファーストインデックス(以下:MFI)化すると発表していましたが、コロナ禍ということもあり、来年(2021年)3月に延期することを決めました。併せて、改めてMFIに向けて事前に準備しておきましょう的な記事を公開しておりますので、和訳してご ...(続きを読む)
昨年12月にGoogleニュース検索での表示に関して、サイトオーナー側は特別な申請が無くなりました。つまり、Googleニュースのコンテンツポリシーさえ遵守していればどんなサイトメディアでもニュース枠への掲載候補となっています。そして、この度そのニュース枠掲載状況をサイトオーナーはGoogle Se ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。