• マルチサーチ機能【Google I/O 2022】

マルチサーチ機能【Google I/O 2022】

毎年恒例のGoogle I/Oが実施中です。今年は米国現地時間5月11日~5月12日の2日間です。これはGoogleのあらゆるプロダクトの進捗発表会みたいな感じです。そしてその中にGoogle検索に関する発表もあるのですが…今のところ真新しい情報は入ってきていません。今回は一応、The Keywordでも紹介されているので、マルチサーチについてご紹介したいと思います。

Google I/O

マルチサーチ機能+α

以前ご紹介したGoogleレンズを使ったマルチサーチ機能(写真をGoogleに理解してもらいつつテキスト入力もして検索結果を絞り込むマルチ入力機能)に、マイビジネスを組み込んで、地域店舗も絞り込めるようになるとのことでした。マルチサーチ機能自体まだ日本には導入されていませんが、Googleの発表内容から推察すると今年の年末~来年には導入されそうな勢いですね。

どんな方法でも、どんな場所でも、あなたの世界を検索する

誰かと話したり、身の回りのものを観察したり、そしてもちろんオンラインで検索したりと、人は様々な方法で情報を集めるものです。検索バーに文字を入力することは、今や多くの人にとって当たり前のことになってはいますが、それが欲しい情報を表現する最も自然な方法とは限りません。例えば、道を歩いていて興味深い木を見つけたら、指を差して「この木は何という種類で、近くにその木の種を売っている場所はないか」と友達に尋ねるかもしれません。数年前、私がこの質問を検索エンジンで表現しようとすれば、より多くの検索クエリと検索回数が必要だったことでしょう。
しかし、Googleではそのような状況を変えていこうと努力を続けてきました。検索をより自然なものにするための大海原に飛び出しているのです。頭に残って離れない曲を鼻歌で歌ったり、Googleレンズを使って視覚的に検索したり(現在、月に80億回以上この検索が行われています!)、検索や情報探索の方法はかつてないほど増えています。
テキスト、音声、視覚情報など、あらゆる種類の情報を理解する方法を組み合わせることで、見たもの、聞いたもの、体験したものについて、最も直感的な方法で役立つ情報に到達することができるよう、この度Google検索をさらに再定義しました。Googleは、どんな方法でも、どんな場所でも、世界中を検索できる未来を思い描いています。
 

マルチサーチで地域情報を探す

最近発表されたマルチサーチ機能は、ここ数年で最も重要なGoogle検索のアップデートの1つであり、世界中で検索できるようになるための過程における節目と言えるでしょう。Googleアプリ上では、画像とテキストで同時検索できるため、何かを指差して友人に尋ねるのと同じような操作になりますよね。
Googleに登録されている何百万ものローカルビジネスの中から、必要とする情報を見つけ出せるよう、Googleは今、マルチサーチ機能で地域情報を見つける方法を新たに追加しています。写真やスクリーンショットを使いながら「near me(近くにある)」というテキストを追加すると、探している衣服、日用品、食品を扱う地元のレストランや小売店の候補まで表示されるようになります。

地域情報が入ったマルチサーチ

今年の後半には、マルチサーチで地域情報を探すことができるようになります。

例えばあなたが、ネットで見たカラフルな料理を食べてみたいけれど、中に何が入っているのか、どんな名前の料理なのか分からないとしましょう。マルチサーチ機能を使うと、GoogleはWebページに投稿された何百万もの画像やレビュー、そしてGoogleマップ投稿者のコミュニティをスキャンして、その料理を提供している近くのスポットを検索し、あなたが実際にその料理を楽しむことができるようにします。
マルチサーチの地域情報は、今年後半に全世界で英語版が提供され、その後順次他の言語にも拡大される予定です。

シーン探索で、より詳細な情報を

現在、Googleでビジュアルを使って検索を行う場合、その枠内に収められたモノを認識して対応することができます。しかし時には、枠内に収まらないモノも含めて目の前にあるシーン全体の情報が欲しいこともあるでしょう。
将来的には「シーン探索」と呼ばれる機能によって、マルチサーチでカメラを上下左右に動かして撮影し、より広いシーンにある複数の物について瞬時に情報を得ることができるようになります。

将来的には「シーン探索」によって、シーン内の複数の物の情報を同時に得ることができるようになります。

例えば、チョコレート通の友人にぴったりのお菓子を選んであげるとしましょう。その友人はダークチョコレートは好きですが、ナッツ類は嫌いなので、その好みを踏まえてより良いものをプレゼントしたいと思いますよね。ここでシーン探索を使えば、携帯電話のカメラで棚全体をスキャンして、商品を選ぶ上で役に立つ情報を、目の前で実際の商品と重ねて見ることができます。シーン探索は、私たちと同じように世界を理解するための強力なデバイス突破口であり、探しているものを簡単に見つけることができるでしょう。
 
このように、あらゆる方法で、あらゆる場所で検索できるようにするために、Googleは最新の取り組みを進めています。しかし、Googleが行なっていることは、検索だけにとどまりません。AIの進化により、Googleマップでは物理的な世界とデジタルな世界の橋渡しをしたり、Googleアシスタントでより自然で直感的な操作を可能にしたりしています。また、あらゆる地域の人々にとって本当に役立つ情報を提供するためには、検索結果の中で自分たちの肌色が分かるようにすることだって重要です。これらの取り組みには、オンライン上の存在と情報を管理する新しい方法を用いて、ユーザーが安全に検索できるようにするというGoogleの信念が根底にあります。

引用)The Keywordより和訳

今回の発表について

過去にもこのブログでは、色々Google I/Oで発表された記事を取り上げてきていますが、今のところ、Google検索回りの情報としてはそこまでパンチのある内容ではありませんね…。

Googleとしては常々「対話型検索を目指す」という方向性でしたが、「いつでもどこまでなんでも情報が手に入る」という方向性を追加したのか変更したのか…いずれにしてもテクノロジーとコンプライアンスに合わせて柔軟な検索の在り方を追求しているようです(笑)。

…というわけで、今後しばらくはGoogle I/Oネタが入ってきますので、そのつもりでいてくださいませ。

カテゴリー

新着記事

人気記事

過去記事