前回に続き、Search On 2022のフォローアップ記事群からご紹介します。今回は、「新しい方法で情報を検索・探索する」です。The Keywordでの記事の切り口や機能紹介が中途半端でして…概念に合わせて機能を紹介しているのでとても理解しづらいのですが(機能単位で記事化して、都度概念を繰り返して伝えてくれれば一番分かりやすいのに)、記事単位で和訳してお届けしますので、その中で機能を理解していただければと思います。
検索を繰り返させない方法
今回のThe Keywordの記事を通して私が感じるのは、「いかに検索者に検索を繰り返させないか」という点が機能に隠された目的のひとつである、ということです。以前にもどこかで記載しましたが、一般的にGoogle検索を使う人は1回の理解をするまで平均8回くらい細かく検索しているとのことです。今からご紹介する各機能は、その8回を少しでも減らすような機能な気がします。
ということで、The Keywordの記事を和訳します。
Search On 2022:新しい方法で情報を検索・探索する
本日開催されたSearch Onでは、機械学習の進歩によって、私たち人間が世界の物事をどう理解しているかということと同様の検索体験の実現に近づいていることをご紹介しました。言語、画像、実世界に存在するモノなど、Googleは様々な形の情報をより深く理解することで、人々が情報を収集し探索するための全く新しい方法を提供できるようになるのです。
そして、Googleでは視覚的な検索をこれまでよりもはるかに自然なものに進化させることで、より直感的に情報を案内できるようにしています。ここで、その詳細についてご紹介しましょう。
既成概念にとらわれない検索で支援
Googleレンズを使えば、カメラや画像を使って身の回りのものを検索することができます。(現在、Googleレンズは毎月80億件以上も検索利用されています!)今年初め、Googleはマルチサーチを導入することで視覚的な検索をさらに自然なものにし、情報検索の未来に向けて大きな一歩となりました。マルチサーチ機能では写真やスクリーンショットを利用し、さらにテキストを追加して検索することができますが、それは誰しもが何かを指差して自然に質問するのと同じような動作です。マルチサーチ機能は現在英語圏で利用できますが、今後数ヶ月のうちに70ヶ国以上の言語まで展開する予定です。
Google I/Oでは、この機能をさらに強化して「Multisearch near me」を発表しました。料理やアイテムの写真を撮ったりスクリーンショットを撮ったりすると、近くにそれがあるか即座に検索することができるようになります。この新しい検索方法は、近所のお店を応援したいときや今すぐ欲しいものがあるときなど、特に地元のお店を見つけて繋がるのに役立ちます。「Multisearch near me」は今秋以降、米国の英語版にて展開予定です。
また、視覚的理解において最も強力な側面のひとつとして、言語の障壁を取り除く能力があげられます。Googleレンズでは既にテキストの翻訳を超え、写真の翻訳にまで踏み込んでいます。実際、毎月人々は100以上の言語で10億回以上、Googleを使って画像の中のテキストを翻訳しています。
機械学習の大幅な進歩により、翻訳されたテキストを複雑な画像に溶け込ませることができるようになり、見た目も感覚もより自然なものになりました。さらに、機械学習モデルを最適化することで、瞬きよりも短いわずか100ミリ秒という短時間でこれらの処理を行うことができるようになりました。これは、Pixelの「消しゴムマジック」機能を支える技術である敵対的生成ネットワーク(GANモデルとも呼ばれる)を使用したものです。この改良された検索体験は、今年後半に導入されます。
そして現在、Googleのこの便利ツールや機能のいくつかをすぐに指先ひとつで使えるようにiOSのGoogleアプリに配置しました。本日より、検索バーのすぐ下に「スクリーンショットから買い物」、「カメラによるテキスト翻訳」、「鼻歌検索」などのショートカットが表示されるようになります。
情報を探索する新しい方法
Googleでは、検索者の情報検索利用における方法を再定義し、より少ない文字列、あるいは一切言葉を使わずに質問しようとも、検索者が言いたいことを正確に理解したり、検索者が役に立つと思うことを表示したりできるよう取り組んでいます。またあるトピックをより深く掘り下げたり、新しい視点を発見して視野を広げたりと、自分にとって意味ある整理された情報を探索することができます。
これを実現するために重要なのは、とにかく探している情報をいかにすばやく見つけるかです。そこでこの数ヶ月のうちに、必要な情報をより早く見つけるための新たな方法をロールアウトします。検索ボックスに質問を入力し始めると、入力している間に関連するコンテンツを即座に提供する機能です。
しかし、情報をどのような切り口で探したいかなんて、実際に検索結果を見てみないと分かりませんよね。そこでGoogleで検索した時に、より自然に、気になるトピックを探せるよう、新しい検索体験を導入します。
検索ボックスに文字を入力し始めると、それに関わるキーワードやトピックのオプションが表示され、質問作成に役立ちます。例えば、メキシコでの旅行先を探しているとしましょう。「メキシコで最適な都市…家族旅行で行くのに」等、質問を具体化することで、より適切な検索結果を導き出すことができます。
メキシコ内のオアハカはこれまで旅行先の候補に挙がっていなかったかもしれませんが、子供と一緒に訪れるには最適な場所のようです。また新しい都市など、あるトピックについて学ぶ時、その外観や雰囲気が気になるかもしれません。そこでGoogleでは、閲覧や利用規約がオープンになっているクリエイターによるコンテンツなど、最も関連性が高く役に立つ情報をハイライトして表示することでテーマを探求しやすくするように取り組んでいます。都市などのトピックでは、実際に訪れた人のビジュアルストーリーやショートビデオ、都市探索のヒント、見どころ、行き方など、旅行を計画する際に知っておきたい重要なポイントが紹介されるようになるでしょう。
さらに、皆様がどういう心理で情報を模索しているかを深く研究しているGoogleでは、あるテーマについてより深く掘り下げたり、別の角度から情報を見出すのに役立つトピックをすぐに表示できるようにしていく予定です。情報にを深掘りしたり、または一旦元に戻って探し直したい時には、トピックを追加したり削除したりすることもできます。一番の利点は、こういった機能によって思いもよらない発見に繋がることです。例えば、オアハカのビーチがメキシコの秘境だったなんてことは知らなかったかもしれませんよね。
また、皆様がトピックを探求する方法をより反映させるために、検索結果の表示方法を見直しました。テキスト、画像、ビデオなど、どのような形式の情報であっても、様々なソースから最も関連性の高いコンテンツが表示されます。さらにスクロールを続けると、検索に関連するトピックからインスピレーションを得るための新たな情報が表示されます。例えば、オアハカの史跡を訪ねたり、ライブ演奏を聴いたりすることは、これまで思いつかなかったかもしれません。
このような新しい情報探索の方法は、今後数ヶ月かけて提供され、皆様の好奇心に即したお役立ちができるようになることでしょう。
枠を超えた検索を楽しみながら、これからも一緒に検索の未来を作り上げていきましょう。
引用)The Keywordより和訳
この記事でのポイントは以下です。
- (画像&テキストのコンボ検索である)マルチサーチが米国英語圏だけでなく、これから数ヶ月で70言語以上に展開される。
- マルチサーチに「near me」と追加テキストを入れると、今の地点の近くでそれを取り扱っている店舗を紹介してくれる。今秋以降の米国英語圏に導入。
- Googleレンズを使えば、写真に写っている文字情報を翻訳して写真に上手く当て込んだ表示をしてくれる(既にアプリに導入済)。
- 予測変換ではなく、予測語句がタグとして表示されるので、調べたい内容を多角的に助けてくれたり、深掘りして助けてくれたりするようになる。しかも、予測語句をハイライトした情報も表示される。予測語句は足したり引いたりすることもできる。
- 併せて、検索結果に直感性やイメージ性を持たせるため、オープンな画像や動画を使って検索結果をよりリッチにしていく。
GoogleのThe Keywordでは、一部、他の記事と紹介機能が重複していますが…まぁ、概念切り口で機能を紹介しているのでしかたないとしましょう。
検索する上での思い付きを具現化!?
つまり、Googleの今回の変更仕様は「人間って何気なく勝手にこう思ったり考えたりするよね」を理屈にし、人間ならではの思考回路を予め用意してあげることで、人間の検索行動に多様性を持たせてあげるということですね。これによって、検索者となる人間はなんとなくテキトーに文字を入力していくことで、新しい気付きになったり、何も考えなくても「良いな」と思ってタップしていったりするわけです。ほら便利でしょ?…という話です。
確かに、“にわか検索”でどんどん新しい情報に出会えるから良いのかもしれませんね…。便利かもしれませんね…。でも、こういう機能が充実していくことで人間はあまり考えなくなってしまうのでしょうか? そんな陰謀論染みた考え方もチラついてしまいますね…。
まぁ、それは一旦便利になってから考えますか(笑)。