Googleはこれからの検索について米国現地時間1月17日、The Keywordにて「2024年の新しい検索方法」と題した記事を公開しました。先日の“かこって検索”もそうですが、AIの助けもあり、Google検索が多面的知覚化(という言い方を私はしていますが、要は視覚要素や文字要素等の様々なインプットを様々な動作で同時に行いGoogleに理解&回答させる)し、かつ直感的に進化しています。これらはマルチモーダル(複数の形式や手段の組み合わせ)という言い方でGoogleも何度も取り上げています。今回そんな“かこって検索”の他にマルチサーチ機能の理解もアップデートされたようですので、The Keywordの記事を和訳してご紹介します。
どんな内容
Googleが発表した記事は「今Googleの検索様式は進化しているよ。よりマルチモーダルになっているよ」という内容です。具体例と共に紹介されていますので以下の和訳をご覧ください。
2024年の新しい検索方法
どこでも、どんな方法でも検索できるように、2つの大きなアップデートを導入します。かこって検索とAIを活用したマルチサーチ機能です。
20年以上に渡って私たちは常に世界の情報を整理し、普遍的にアクセス可能で有益なものにするという使命に導かれながら、検索エンジンにできることを常に再定義してきました。これは、テキスト、音声、画像、動画など、様々な形式の情報をより深く理解するためのAIの進化と密接に関係しています。
この進化の一環として、より自然で直感的な方法で探しているものを表現しやすくしました。例えば声で検索したり、Googleレンズを使ってカメラで検索したりできます。また最近では、自然言語を理解する生成AIの能力によって、より自然な方法で検索して質問できるよう試行しています。
最終的には、どこでも好きなように検索できる未来を思い描いています。そこで、2024年を迎えるにあたり、このビジョンの実現に近づく2つの大きなアップデートをご紹介します。“かこって検索”とAIを活用したマルチサーチ体験です。では、見ていきましょう。
かこって検索(ハイライトまたは走り書きでも)
本日、アプリを切り替えることなく、Android端末の画面上のあらゆるものを検索する新機能“かこって検索”を発表しました。簡単な操作で、画像、テキスト、動画を、丸で囲む、ハイライトする、走り書きする、タップするなど、お好きな方法で選択し、そのままの状態で必要な情報を見つけることができます。
何かに興味を引かれたとき(この可愛い犬用ゴーグルのように)、今やっていることを中断して別のアプリやブラウザを使って情報検索を始めるのは煩わしいと思いませんか。しかしこれからは、友だちとメールをしているときでも、ソーシャルメディアを閲覧しているときでも、ビデオを見ているときでも、好奇心が湧いたときにすぐに画面上のものをそのまま検索できるようになるのです。また、これまでお伝えしてきたように、検索広告とショッピング広告は、結果ページ全体の専用広告枠に引き続き表示されます。
“かこって検索”は、Pixel 8、Pixel 8 Pro、新しいSamsung Galaxy S24シリーズを皮切りに、1月31日に一部のプレミアムAndroidスマートフォンで世界的に展開されます。
カメラを向け、質問し、AIから助けを得る
2022年、私たちは画像とテキストの両方でマルチモーダル検索をする新しい方法として、Googlレンズでマルチサーチを開発しました。例えば、Googleレンズで赤いスニーカーの写真を検索し、“青色”という単語を追加して、同じ形で好みの色のスニーカーを見つけることができます。しかし、この度Googleの生成AIにおける最近の革新のおかげで、マルチサーチはもっと簡単に世界を探索できるようになりました。
本日より、Googleアプリでカメラを向けて(または写真やスクリーンショットをアップロードして)質問をすると、新しいマルチサーチ体験では、視覚的な一致に留まらず、AIを活用して洞察的な結果を表示します。これにより、見たものに関してより複雑でニュアンスの異なる質問をしたり、重要な情報を素早く見つけて理解したりすることができます。
例えば、あなたがヤードセール(日本でいうフリマ)で見慣れないボードゲームを見つけたとします。箱も説明書もないので、まず最初にいくつか疑問が生じるでしょう。このゲームは何なのか、どうやって遊ぶのか、そこで役立つのが新しいマルチサーチ機能です。
ゲームの写真を撮り、質問(「これはどうやって遊ぶの?」)を追加するだけで、Web全体から最も関連性の高い情報を集めたAI搭載の概要が表示されます。そうすれば、そのゲームの名前と遊び方がすぐに分かるでしょう。また、AIを搭載した概要表示のサポートリンクによって、より深掘りし詳細を把握することも簡単になります。
マルチサーチ結果のAIによる概要表示は、今週から米国で英語版が開始されます。開始するには、AndroidまたはiOSのGoogleアプリでGoogleレンズのカメラのアイコンを探してください。米国外にお住まいでSearch Generative Experience(SGE)に登録されている方は、Googleアプリでこの新体験をプレビューすることができます。また、かこって検索内で、マルチサーチ結果のAIによる概要にアクセスできるようになります。
Google検索におけるジェネレーティブAIの大胆な実験の継続
この度のマルチサーチにおけるAI活用の概要表示のリリースは、昨年Search LabsのSGEを使って、生成AIが検索においてどう根本的に役立つかを確認すべく始めたテストの成果です。Googleは、この実験に参加いただいた方々から多くの有益なフィードバックを得ており、引き続き大胆な新しいアイデアのための実験としてSearch LabsのSGEで提供します。
とはいえ、Googleの目標は、アーリーアダプター層だけでなく全ての人にとって役立つAIを作ることです。そのために今後も実験を続け、AIをどうすれば最適に役立つかを追求するにつれ、今回のマルチサーチ結果のように、より広くGoogle検索に導入していく予定です。
今日のアップデートは、Google検索をより自然で直感的なものにするでしょう。Googleがテストしている最新の機能を試すには、Search Labsに登録し(利用可能であれ)、SGEの実験にご参加ください。Google検索の未来を再構築し続けるLabsに、ぜひご期待ください。
引用)The Keywordより和訳
“かこって検索”のほうはこちらの内容をご覧いただければと思います。そしてマルチサーチ機能のほうですが、これに関しては従来の画像とテキストのコンボ入力によって、GoogleのAIがより深く洞察し、より詳細で正確な情報をAIが回答してくれるようになるとのことです。そしてそのAI回答の引用元のサイトページも紹介してくれるので、より専門的に情報を得ることができるようになるでしょう。ちなみに、そういう形式の回答になってもリスティング広告やショッピング広告枠は継続して掲載されるとのことでした。
GoogleのAIによる開発ルーチンから未来を考える
GoogleはSearch LabsのSGEを使って色々試し、利用者のフィードバックをヒントやインスピレーションの糸口に変え、新機能の開発に役立てているとのことです。逆に考えれば、我々がSGEを使って単純に思う「こうなれば良いのに」「もっとここを改善してほしい」と思ったことはいずれそうなるということですね。フィードバックすればよりそれが加速化することでしょう。
つまり、私たちが検索について思う未来や想像は必ず実現していくのではないでしょうか。そう考えると私の持論もあながち間違えではないと思うのです(笑)。その辺の自称ライターや自称マーケターがテキトーにWebサイトを2,3調べて書き上げる記事にどれほどの価値があるのか、テキトーな記事に権威者の監修をエビデンスとして掲載することにどれほどの価値があるのか、パブリッシャーとは情報提供者であり、情報提供者は常に一般知識より先んじていなければなりません。胸を張ってコンテンツを提供できるノウハウと経験がものを言う時代になりつつありますね。そして、これもまた諸行無常なのでございます。