2020年以来の開催でしょうか。Googleでは、Search On 2022を米国現地時間9月28日に実施(オンライン開催)しました。今回のテーマは「枠を超えた検索」――つまり「より高次な検索体験」という印象です。このSearch On 2022の内容動画は一覧でYouTubeに上がっていますが、フォローアップ記事がThe Keywordにも一覧化されていますので、これらの中で活用的な内容を記事単位で和訳し、今後しばらく紹介していきたいと思います。今回のSearch Onは、ショッピングに活用できるようなGoogleレンズや検索結果に関する機能紹介が中心です。
より直感的な検索を
今回のSearch On 2022の開幕として公開されたThe Keywordの記事からご紹介します。「枠にとらわれない検索:より自然で直観的な検索方法」という内容です。Search On 2022の概要としてまずはご覧ください。
枠にとらわれない検索:より自然で直感的な検索方法
20年以上にわたってGoogleは「世界中の情報を整理し、誰もがアクセスできて役立つようにする」というミッションに全力を注いできました。それはテキスト検索から始まり、今やカメラで見たものを検索したり、音声で質問をしたりと、より自然で直感的な情報検索を実現し続けてきました。そして、今回のSearch Onでは人工知能の進化によって、情報に関わるGoogleの様々な製品がさらに変貌を遂げる様子をご紹介しました。Googleは、検索ボックスの枠を大きく超えて、我々人間の心と同じように働き、我々人間と同じように多次元的な検索体験を実現しようと取り組んでいます。
Googleは、人間がごく自然に行うように、画像、音声、テキスト、スピーチなどを組み合わせて、探しているものを見つけることができるような世界を思い描いています。少ない言葉で、あるいは全く言葉を使わずに質問しても、Googleは検索者の言いたいことを正確に理解できるようになるでしょう。そして、検索者にとっては、意味ある形で整理された状態と共に情報を探索することができるようになります。
Googleはこれを「より自然で直感的な検索」と呼び、世界中で役立つべく、この展望を実現するための長期的な道を進んでいます。Google製品の未来をどのように進化させるか、Search Onで発表した3つの注目情報をご紹介します。
ビジュアル検索をもっと自然に
カメラは何百年も前から存在し、通常は思い出を保存したりするため、最近ではコンテンツを作成したりするためのものとしても考えられています。しかし、カメラ機能は情報にアクセスし、あなたの周りの世界を理解するための強力な手段にもなり、カメラ機能は次のキーボードに代わるものと言えるほど進化しています。それから、2017年にはGoogleレンズを導入しカメラや画像を使って見たものを検索できるようにしました。まさに今、ビジュアル検索の時代が到来しており、検索者による毎月80億もの検索に答えるためにGoogleレンズは使用されています。
マルチサーチは、画像とテキストを同時に使って検索する全く新しい方法で、ビジュアル検索をさらに自然なものにしています。今年初めには米国でベータ版としてマルチサーチ機能を導入し、Search Onでは、今後数ヶ月のうちに70以上の言語に拡大するということを発表しました。今回この機能をさらに進化させ、料理や植物などで見慣れないものを写真に撮ると、それらを扱うレストランや園芸店など近くのお店で探すことができる「Multisearch near me」も提供します。今秋から米国で英語版「Multisearch near me」を展開する予定です。
身の周りの世界を翻訳する
視覚的理解において最も強力な要素のひとつは、言語の壁を取り払う能力です。AIの進歩により、Googleはテキストの翻訳を超え、画像内の翻訳もできるようになりました。世界中の皆様は、すでにGoogleを使って毎月10億回以上、100以上もの言語で画像内のテキストを翻訳している状態でして、店先、メニュー、看板などを瞬時に読み取ることができます。
しかし多くの場合、言葉と背景画像のような文脈の組み合わせがあって初めて意味をもちます。そこで、敵対的生成ネットワーク(GANs)という機械学習技術により、翻訳されたテキストを背景画像に溶け込ませることができるようになりました。そのため、例えば外国語の雑誌にカメラを向けると、その写真に翻訳されたテキストがリアルに重なって表示されるようになりました。
没入感のある世界観
より自然で直感的な体験を実現するためのGoogleの取り組みは、現実世界の探索にも及びます。コンピュータビジョンと予測モデルの進化により、地図のあり方を完全に再構築しています。つまり、2次元の地図が現実世界の多次元ビューに進化し、あたかもその場にいるかのような体験ができるようになるのです。
ナビ機能のライブトラフィック(交通状況)がGoogleマップの利便性を劇的に高めたように、Googleマップでは、天候や場所の混雑具合などの役立つ情報を「Immersive view」(没入型視点)での表示を実現し、地図をまた大きく進化させます。この新たな体験によって、お店に足を踏み入れる前にその場所の雰囲気を掴むことができ、いつ、どこに行くかについて、自信を持って決断できます。
例えば、友達とレストランで待ち合わせをしているとします。待ち合わせの日時を決めるために、近隣やレストランにズームインして、天気や混み具合などをビジュアル化することができます。世界中の高度な画像と予測モデルを融合させることで、明日、来週、来月はどのような場所になるのかを予想することができるのです。現在250のランドマークの航空写真でこの最初の反復検証開発を展開しており、Googleマップの「Immersive view」(没入型視点)は、今後数ヶ月のうちに主要5都市に導入され、さらに多くの都市で順次導入される予定です。
Search Onで紹介された他の多くの発表とともに、Googleは従来の検索ボックスの枠を超えるための製品の変化の第一歩を踏み出しました。Googleは、皆様が最も自然な方法で情報を理解できるように、皆様と皆様の生活に適応する技術を開発していくことを固く決意します。
引用)The Keywordより和訳
今回の記事ではSearch On 2022の主力機能を3つの切り口で紹介してくれています。
- マルチサーチ(2022年4月にこちらで紹介済み)が70言語まで展開する。また「near me」検索と合わせると近くの販売店まで紹介してくれる機能が(米国で)展開(2022年5月のGoogle I/Oで触れたやつをこちらで紹介済み)。
- 写真画像内のテキスト部分だけを翻訳して言語変換して表示(これは既に日本でも利用できている機能)。
- Googleマップで店内に入る疑似体験ができる没入型視点を開始(対象ランドマークありきで米国の5都市から始める)。
人間に近付ける検索体験
人間は一般的に目で何かを見ながら「あ、あれは何だろう」とか「ああいうのってどこで売っているんだろう」と脳で考えますよね。また、多言語を理解できている人は外国レストランのメニューを見ても、外国製商品の取扱説明書を見ても、母国語と同じように全体像を理解することができますよね。それをGoogleが検索で具現化したものが今回の機能です。それが今回Googleが「枠を超えた検索」と言い、「我々人間の心と同じように働き、我々人間と同じように多次元的な検索体験を実現しよう」と言っていることに繋がります。
今回は検索者にとってどれくらい検索しやすくなっているかをGoogleが発表している内容ですので、SEOを行う側にはあまり関係ない記事かもしれません。しかし、それでも私は画像検索の重要性を謳っているわけで、実は今後の検索体験を考えたSEOのアプローチ法はあったりしますので、いずれまたご紹介します。要はどういう画像を取り扱っていけば、検索者にとって興味深い内容になるか、ということです。
というわけで、今後もSearh On 2022のフォローアップ記事をご紹介予定ですのでお楽しみに!