• AIによるマルチサーチ機能の拡大

AIによるマルチサーチ機能の拡大

前回の記事でGoogleのAI「Bard」について触れまして、Bard発表の2日後にGoogleがパリで発表した内容のツイートとそのフォローアップとなるThe Keyword記事が公開されました。てっきりBard絡みかと思ったのですが、マルチサーチ機能中心の内容でした。私ももうちょっとBardやAIの話に触れたいのですが、とはいえ、ご紹介しておきます。Googleレンズの拡張機能として、GoogleによるAIがマルチサーチにも機能しているという例です。

ツイート内容

まずはツイート内容からご紹介しますが、8連スレッドにつきページが長くなってしまいますので、最初のツイートのみで残りの7ツイートは原文無しでご紹介します。

  1. 本日パリにて、より自然で直感的なGoogle検索を実現するために長年の取り組んできた成果の最新情報を発表しました。最新情報とは、マルチサーチ機能のグローバル展開、画面検索の新しいやり方、Google検索におけるBardとAI機能による私たちの幅広いビジョンへの適合性等です。
  2. マルチサーチ機能は、画像とテキストを同時に検索することができる、今までにない新しい検索方法です。現在Googleレンズが利用可能なすべての言語と国で、マルチサーチ機能がモバイル端末でグローバルに利用できます。https://blog.google/products/search/visual-search-ai/
  3. そして今後数ヶ月のうちに、GoogleレンズはAndroidのGoogleアシスタントを通じて「画面検索」ができるようになります。つまり、メッセージアプリやビデオアプリなど、よく使うサイトやアプリを起動操作したまま、その中に表示された写真やビデオを検索することができます。https://blog.google/products/search/visual-search-ai/
  4. 月曜日には、他2つの取り組みについてお伝えしました。1つは、Google検索とは別に、実験段階の会話型AIサービスであるBardです。Bardがその品質と速度を強化・改善していくために、信頼できる外部のテストユーザーに公開できるようになったことに私たちは喜びを感じています。https://blog.google/technology/ai/bard-google-ai-search-updates/
  5. また、複雑な情報と複数の視点を抽出し、理解しやすい形式で表示することで直感的に全体を把握し、Web上からより多くの情報を取り入れることができるよう、検索にAIを活用した機能を導入することについても共有しました。
  6. 明確なプロダクトとしては、これらはまだ開発段階です。本日パリで、Googleの上級副社長であるPrabhakar Raghavan氏(@wittednote)は、「GoogleのAI分野では、クリエイティブなコミュニティやパートナーと協力し合い、これらのツールを開発する機会があれば積極的に受け入れていく」と述べています。
  7. また本日、Prabhakar Raghavan氏(@wittednote)は「このような新しいAI機能を拡大していくにあたり、幅広いクリエイターに価値ある情報ソースを提供し、健全で開かれたWebを支援できるようなアプローチを優先していく」とも述べました。
  8. 私たちがAIを活用してGoogle検索を改善しているように、クリエイターの皆様もその可能性に期待していると理解しています。本日、@googlesearchcでは、Google検索で皆様に役立つコンテンツを表示するために、AIが生成したコンテンツがGoogleの方針にどう適合するか、クリエイター向けのガイダンスと共に共有しました。https://developers.google.com/search/blog/2023/02/google-search-and-ai-content?hl=ja

引用)@searchliaisonより和訳

 

パリでもBardについては触れたようですが、マルチサーチの新機能中心でもあった模様です。とはいえ、AIに関しては、Prabhakar Raghavan氏の言うように「とにかく先端の開発者にGoogleのAIを提供していく」ことが強調されており、AI市場に対して速やかに無償アプローチしていくことで、まずはGoogleの市場占有率を上げていく狙いがあるようです。

フォローアップ記事

合わせて米国現地時間2月8日に、The Keywordの記事が更新され、マルチサーチ機能の詳細が紹介されていますので和訳します。

画像から動画まで、AIがGoogle検索を視覚的に支援する方法

Googleは、AIを搭載した次世代のテクノロジーによって、より視覚的で自然、かつ直感的な情報探索を実現します。
 
Googleの製品には、大小様々な場面でユーザーの役に立つという唯一無二の目標があります。その目標を達成するために、人工知能が大きな力を発揮してくれると、私たちは長い間信じています。検索エンジンの初期段階から、AIは言語理解を助け、検索結果をより有益なものにしました。そしてここ数年、GoogleはAIへの投資を強化し、今では言語理解から画像理解、動画理解、さらには現実世界の理解に至るまで、様々な形で情報を理解できるようになりました。今回は、Googleが進化したAIを応用して、より自然で直感的な情報探索を可能にした新たな方法をいくつかご紹介します。
 

目に見えるものは、検索できる

カメラというものは、自分の周りの世界を探索し理解するための強力な手段となっています。実際カメラや画像を使って目で見たものを検索すべく、現在Googleレンズは世界で月間100億回以上利用されています。Googleレンズでは、自分と周りの世界の情報を、1回の操作と1枚のビジュアルで繋げたいと考えています。すでにGoogleレンズを使えば、カメラや写真を使った検索であっても、検索バーから直接行うことができます。そしてこの度、モバイルの画面に表示されている状態のまま検索できるように、大きなアップデートを実施しました。
今後数ヶ月のうちに、Googleレンズを使った「画面内検索」が世界中のAndroidで出来るようになります。この技術によりメッセージアプリやビデオアプリなど、皆様がよく知りよく使うWebサイトやアプリケーションで写真やビデオに写っているものを、そのアプリを閉じて離脱することなく、そのまま検索できるようになるでしょう。
 


 

例えば、あなたの友人がパリを散策しているビデオをメッセージアプリで送ってきたとします。その背景で見つけたランドマークの建造物について詳しく知りたい場合は、Android携帯の電源ボタンまたはホームボタンを長押しして(※Googleアシスタントを呼び出す操作)、「検索画面」をタップするだけ。Googleレンズはその場所をルクセンブルク宮殿と認識し、そこをクリックすると詳細を見ることができます。
 

検索方法を組み合わせる

マルチサーチ機能を使えば、写真とテキストを同時に検索することができ、今までにない新しい検索が可能になります。現在、マルチサーチ機能はGoogleレンズが利用できるすべての言語と国で、世界中のモバイル端末で利用できます。
 


 

さらに最近ではローカル検索機能を追加し、マルチサーチをさらに進化させました。写真を撮って「near me(近くにある)」と追記すれば、地元のお店を応援したい時でも、とにかく急いで何かを探している時でも、必要なものを見つけることができるようになります。現在、米国の英語圏で利用できますが、今後数ヶ月で世界的に展開していく予定です。

また検索をしている中で、ふと目に留まり、そこからインスピレーションを受けることもあるかもしれません。こちらも今後数ヶ月の間に、モバイルのGoogle検索結果ページに表示されるあらゆる画像からそのままマルチサーチ機能を世界的に使えるようになります。
 


 

例えば「モダンなリビングルームのアイデア」と検索している時に、気に入ったコーヒーテーブルが画像検索結果にあったとします。そのコーヒーテーブルを別の形——例えば、円形ではなくこれの長方形バージョンのテーブルが欲しいと思った時、マルチサーチで「長方形」というテキストを追加すれば、あなたが探している形のコーヒーテーブルが見つかるでしょう。

私たちは、より直感的で視覚的な検索体験を実現しようとしていますが、それはまだ氷山の一角にすぎません。将来的には、AIを活用することで無限の可能性を秘めていると考えています。

引用)The Keywordより和訳

 

つまり、今回の発表では、以下の機能がマルチサーチに追加・拡張されるとのことです。

  • 世界的対象に、今後数ヶ月でAndoroidならアプリを使って閲覧した画像や写真からそのままマルチサーチできるようになる。
  • 世界的対象に、今後数ヶ月でマルチサーチに「近くの(near me)」をコンボでテキスト入力することで、ローカルビジネスに繋がるようになる(今までは米国の英語圏のみだった)。
  • 世界的対象に、今後数ヶ月でGoogleの画像検索結果からそのままマルチサーチできるようになる。

GoogleのAIは言語生成だけではない

Googleがここにきて、畳みかけるようにマルチサーチにもAIを活かした立体的検索を展開するようになりました。視覚的な情報もAIで判別して明確に回答できるようになります。しかも世界的に。数ヶ月先の話にも関わらず、Bardから数日で発表したということは…「Googleは言語生成だけじゃなく視覚情報にもAIを入れてるから発展性が高いぞ」というアピールのようにも感じます。

さぁ、ついにAI合戦に火が点いてきました。ChatGPTやMicrosoftがちょっと先んじている感がありますが、これからGoogleがどう攻勢をかけていくか見ものでございます。ちなみに面白い記事もありましたので、最後にご参考としてご紹介しておきます。

カテゴリー

新着記事

人気記事

過去記事