• Google検索の進化を暫定紹介

Google検索の進化を暫定紹介

Googleでは米国現地時間10月3日、GoogleレンズをはじめとしたAIによる検索結果の多様化について、最新事例をThe Keywordにて紹介しました。要は「こんな検索ができるようになっているぞ」という話です。単純にパブリッシャーやサイトオーナーとして検索を見るだけでなく、一般ユーザーとしても検索と向き合うことで色々なヒントになると思います。ですので、今回はそんなGoogleの記事を和訳してご紹介したいと思います。

Googleの発表内容

The Keywordの記事を和訳します。前半はGoogleレンズを使った機能について、後半は検索結果のUIデザインについて、それぞれAI活用を交えて紹介してくれています。

Google検索のAIで新しい方法で質問してみよう

長年にわたり、私たちはGoogle検索について再考し続けてきました。ユーザーは検索クエリを入力したり、カメラで検索したり、鼻歌を歌ったりと、あらゆる方法で質問をすることができます。
検索機能の拡張には、AIの高度な機能が不可欠であり、検索用にカスタマイズされたGeminiモデルにより人々がWebや身の回りの世界により多くを発見できるよう支援する能力が向上しました。実際、AIによる概要を使用しているユーザーは検索をより多く利用しており、検索結果にもより満足しています。また、Googleレンズは現在、毎月約200億件のビジュアル検索に使用されており、ユーザーがカメラや画面で見たものを検索する手助けをしています。
本日これまでにないほど重要な検索のアップデートを実施し、AIを活用することで必要な情報を正確に見つけることから思い浮かんだあらゆる好奇心を探求することまで、Googleがユーザーを支援する方法を大幅に拡大し、検索の新たな大きな一歩を踏み出します。
 

目にするもの(耳にするもの)を検索する新しい方法

数年前にGoogleレンズでビジュアル検索を初めて導入して以来、AIの最新技術を活用してその体験を進化させてきました。今年初めには、生成型AIをGoogleレンズに組み込みました。これによりカメラを向けて質問すると、必要な情報が記載されたAIによる概要と、さらに詳しく知るためのリンクが表示されるようになりました。既にこの機能が非常に役立つと評価するユーザーが増えています。この機能により、Googleレンズの全体的な利用が増加し、ユーザーは新しいより複雑な質問に対する助けを求めてレンズ利用に戻ってきたのです。
Googleレンズのクエリは現在、Google検索で最も急成長しているクエリタイプの1つであり、18歳~24歳の若いユーザーがGoogleレンズを最も活用しています。そして今、私たちはGoogleレンズにさらに多くの機能を追加し、身の回りの世界をさらに簡単に検索できるようにします。
 

Googleレンズの動画理解機能

I/Oでプレビューした動画理解機能が、現在ではGoogleレンズを使用して動画を撮影し、その動画内の動く物体について質問することで検索ができるようになりました。例えば、あなたは水族館で、展示されている魚についてもっと詳しく知りたいとします。GoogleアプリでGoogleレンズを開き、シャッターボタンを長押しして録画しながら、「なぜ一緒に泳いでいるの?」などと質問を口に出してみましょう。Googleのシステムが動画と質問を組み合わせてAIによる概要を作成し、Web上の関連リソースも表示します。

この機能は、英語での検索に対応しており「AIによる概要とその他」の実験に参加しているSearch Labsユーザーは、Googleアプリ(AndroidiOS)で世界中で利用できます。
 

Googleレンズで音声による質問

Googleレンズで写真を撮影する際に、音声で質問できるオプションがいつでも利用できるようになりました。カメラを向けてシャッターボタンを押すだけで、頭に浮かんだことを何でも質問できます。これは、何かを指さして友人にそれについて尋ねるのと同じことです。Googleレンズの音声入力は、英語での検索の場合、AndroidiOS向けのGoogleアプリで世界中で利用できるようになりました。


 

Googleレンズがアップデートされ、目にした商品の購入がより簡単に

また、Googleレンズを使って身の回りの商品の購入もより簡単にできるようになりました。これまでGoogleレンズでは、Web上のさまざまな小売業者から見た目やサイズが似た商品を見つけることができました。しかし今週から、レビューや小売業者ごとの価格情報、購入先など、探している商品の主な情報が表示される、より便利な検索結果ページが表示されるようになります。
例えば、空港でバックパックを見かけて、自分用に買いたいと思ったとします。そんな時は、写真を撮るだけで、GoogleレンズはGoogleのショッピンググラフ(450億以上の商品に関する情報を含む)と高度なAIモデルを組み合わせて、正確なアイテムを特定します。 気になるアイテムについて詳しく調べることができ、その場でショッピングを開始できます。


 

耳にした曲を特定する新しい方法

ソーシャルメディアをスクロールしながら動画を見ているとき、ストリーミングで映画を見ているとき、または訪問中のWebサイト上で、最新のかこって検索機能のアップデートにより、アプリを切り替えることなく、耳にした曲をすぐに検索することができます。また、最新のAndroid展開により、より多くのユーザーに“かこって検索”を提供しています。現在、1億5,000万台以上のAndroid端末でご利用いただけます。
 

AIで整理された検索結果ページ

今年初め、私たちは、AIがWebからより幅広い結果を探求し発見するのに役立つ可能性について、夕食会で出すベジタリアン向けの前菜を検索している場合のように、正解がなく答えが一つに定まらない質問について、プレビューを行いました
今週、私たちは米国でAIで整理された検索結果ページの展開を開始し、まずはモバイルでのレシピや食事のインスピレーションからスタートします。関連性の高い検索結果があなたのために整理された、フルページの検索結果が表示されます。記事、動画、フォーラムなど、Web全体からコンテンツや見解を簡単に探索できます。それもすべて1箇所で。

私たちのテストでは、ユーザーはAIが整理した検索結果ページをより役立つと感じています。AIが整理した検索結果ページにより、より多様なコンテンツ形式やサイトをお届けし、コンテンツが発見される機会をさらに増やします。
 

Webの優れたコンテンツへのさらなる接続

人々は多くの疑問について、直接ソースにアクセスしたいと考えていることを私たちは理解しています。Google検索のAIでは、Web上の幅広いソースからコンテンツや見解を発見できるよう支援することに重点を置いています。
私たちは、AIによる概要のテキスト内に直接サポートWebページへの目立つリンクを追加する新しいデザインをテストしてきました。テストの結果、この改善によって以前のデザインと比較し、参考となるWebサイトへのトラフィックが増加し、ユーザーが興味のあるサイトを訪問しやすくなったことが分かりました。この好評をもとに、本日より、AIによる概要が利用可能なすべての国で、この機能をグローバルに展開します。
また、Google Marketing Liveで発表した通り、関連性の高いクエリに対する、AIによる概要内の広告を慎重にテストしてきました。AIによる概要内で直接広告が表示されることがユーザーにとって役立つことが分かりました。関連性の高いビジネス、製品、サービスに素早くつながり、次のステップに進むことができるからです。 ポジティブなフィードバックを受け、関連性の高い検索クエリに対して、米国でAIによる概要内の広告の提供を開始しました。これにより、ユーザーの検索に役立つ製品やブランドとユーザーを結びつけることができます。詳細はこちらの記事をご覧ください。
テキスト、音声、音声、画像など、どのような方法で検索する場合でも、Googleで質問できる種類を拡大するよう常に努力してきました。AIにより、検索がどのようにすれば必要な情報を素早く入手できるかを再考し続けており、世界中のより多くの方々にこうした体験をお届けできることを楽しみにしています。

引用)The Keywordより和訳

 

つまり、この記事の要点としては以下の通りです。

  • Googleレンズで撮影・アップした写真や動画をAIが答えてくれる。
  • 写真や動画とテキストとのコンボ検索も可能。
  • Googleレンズで撮影した商品のショッピングが可能。
  • かこって検索を使って音楽の検索と購入が可能。
  • AIを使って多角的な切り口を整理した検索結果を1ページで紹介。

既に以前よりGoogleはこういう仕様の発表はしていましたが、あらためて実用化に伴う利用喚起をしてくれている、という感じですね。こういう視覚情報検索の日常化を考えると、ECサイトオーナー側としては対象商品の写真をより多く掲載していったほうが良いだろうと思ってしまいます。そもそも私は個人的に、Webにおいて商品販売をする上で、世の中のサイトには商品写真点数が少ないように感じておりました。

ですので、こういう検索対象の施策を動機として、写真点数が増えていくと良いなぁ、と思います。

カテゴリー

新着記事

人気記事

過去記事