Google生誕20周年記念に機能追加

米国現地時間9月24日、Google検索のサービス開始から20周年を迎えました。その20周年を機に、Google検索に多くの機能を追加したとの発表がありましたのでご紹介したいと思います。

Google Search 20th

ふわふわ

どんな機能が追加されたの?

Google検索の新機能の数は目茶苦茶多いですね(笑)。「Google at 20」というブログカテゴリ記事だけでも20記事分あります。細かな機能は置いといて…まずはざっくりと以下5つをご確認ください。

ディスカバー(Discover)

Google検索モバイルにおいて、フィードを新デザインで紹介する機能です。
https://www.blog.google/products/search/introducing-google-discover/

アクティビティカード(Activity Cards)とコレクション(Collection)機能

アクティビティカードとは検索履歴情報を確認し再活用できる機能で、コレクションとはそれを自分で集約しまとめられる機能です。
https://www.blog.google/products/search/helping-you-along-your-search-journeys/

AMPストーリーとGoogleレンズ(Lens)

検索結果に動画紹介する(AMPストーリー)だけでなく、その動画内容をAIが分析し、検索クエリと関連性が高いところだけ再生される性能。また、GoogleレンズがGoogle画像検索に統合化。
https://www.blog.google/products/search/making-visual-content-more-useful-search/

私が注目するのはやはりなんといってもGoogleレンズ。Googleレンズとは手元の画像をGoogleに確認するとそれが何か認識して回答してくれる機能です。

現在はGoogle Lens(Googleフォトの一部、あるいは専用アプリ)をタップするとGoogleのコンピューター画像認識機能が対象画像に関連する詳しい情報を提供してくれる。これによりユーザーは自分が見ている画像が何であるかを知ることができる。

引用)TechCrunch Japan

今回、そのGoogleレンズがGoogle画像検索に統合されることにより、画像検索で表示された検索結果の画像内の別のモノが気になった場合、それをタップすることで新たにそれの画像検索が可能になります。つまり、モノを知らなくても、直観的にタップするだけで視覚的連続検索が可能になるのです。

ボタンをクリックするとGoogleはコンピュータービジョン能力を総動員して画像を解析し、それが何であるか突き止めようとする。乳母車ではなく、背景に写っているランプが気に入ったのなら、指でランプを押さえればその部分にフォーカスが移る。

引用)TechCrunch Japan

例えば、画像検索で表示された検索結果の画像がGoogle Lensに対応している場合、画像に表示された検索対象とは別の対象物を新たに画像検索可能。画像の中の気になる物体をクリックして情報を検索することが可能になります。

引用)GIGAZINE

ふわふわ

Googleより

というわけで、Googleの検索機能が飛躍的に進化していくわけですが、最後にBen Gomes氏によるGoogleブログを一部和訳してご紹介したいと思います。

20年前にGoogle検索が始まった時、私たちの任務は世界中のインターネット情報を体系立て、それを誰もがアクセスでき、役に立てることでした。それは1998年にWEBサイトがちょうど2,500万ページを超えたと考えられている時(小さな図書館にある本の総ページと同量くらい)で、その時でさえ信じられないほど野心的な任務でした。

あれから今日に至るまであっという間に、私たちは何千億と存在するサイトページ群をインデックスし、世界中の図書館にある情報よりも多くの情報を管理できるようになりました。今では私たちは世界中の人々に利用してもらえるようになり、150以上の言語と190以上の国にGoogle検索を提供しています。

これらを通じて言えることは、私たちはしっかりと地に足を付けながら任務を遂行しているということです。正直、私たちがより多くの情報へのアクセス提供を最初に始めた時と、今進めている仕事は同じくらい大切です。また、テクノロジーにおけるほぼ全ての情報が変容し、そういった情報に触れつつも、私たちが考える検索の基本方針は変わりません。

  • 何よりもまず、私たちはユーザーにフォーカスします。レシピを探していいようが、期末テストのためを勉強をしていようが、どの党に投票すべきか情報集めをしていようが、私たちは常に欲しい情報に辿り着けるようフォーカスしてきました。
  • 私たちは最も関連度の高い、そして最も質の良い情報を、出来るだけ早く提供できるように努力しています。これはGoogleがページランクアルゴリズムを始めた時から同じで、検索する時の基礎的なテクノロジーです。そして、それは今日も同じです。
  • 私たちは数十億ものクエリを毎日見ていますが、そのうち15%は新しい言葉です。このデータを見ても、検索を効率良く提供する唯一の方法はアルゴリズムによるアプローチです。これは昨日初めて見たクエリの回答に役立つようになるだけでなく、明日初めて出てくるかもしれない予測できないものにも役立ちます。
  • 最後に、私たちはどんな変更であろうとも徹底的にテストをしています。このテストの重要なポイントとなるのが、検索品質評価ガイドラインという検索上における私たちの理想形である、誰にでも閲覧可能なガイドラインです。検索についてのあらゆる変更は、実験やこのガイドラインに則した評価者によって検証されています。昨年だけで20万回以上もの実験が行われ、結果2,400以上ものアルゴリズム変更を加えました。検索品質は昨日よりも今日、今日よりも明日、常にもっともっと良いものが出てくるでしょう。

Googleが20周年を記念して、これからのGoogle検索における機能の一部を少しだけ、またどこでも誰でも情報にアクセスでき、役に立つものにするためにどうやって私たちが取り組んでいるのかを紹介しましょう。ここからは、私たちがGoogle検索に対して考えている3つの根本的なシフトによって構成しています。

Google検索が始まった頃は、まだ言語の意味を理解することが出来ませんでしたが、その意味理解能力は向上し続け、今では各AIの進化が下支えとなっています。これは非常に興味深いことで、20年前に私がニューラルネットワーク(※連想と認識によって機械学習を補助する神経回路網)を学校で取り組んだ時は、全く機能させることが出来なかったくらいです。

でも、ニューラルネットワークが単語の理解から始まり、概念の理解まで出来るようになるほど躍進してきたのです。ニューラルエンベディングスという、ニューラルネットワークの中で展開するアプローチ手法によって、言葉というものを、コンセプトの基礎となるニュアンスに転換し、検索の中に含まれる深層心理と表示させるサイトページの中の概念をマッチングさせることを可能にしました。私たちはこの手法をニューラルマッチングと呼んでいます。例えば「なんで私のテレビは変に見えるの?」という検索に対して、その質問の意味を直接的に表す文体でなくても真意を理解し、最も関連度の高い結果を示すことが可能です。(ちなみに、このテレビが変に見える原因はソープオペラ効果と呼ばれるらしい。)

テレビで正確な情報を得ることは瞬間的には非常に役立ちます。しかし、AIはもっと大きく深い効果をもたらしてくれます。洪水で影響を受けると予測されたエリアが本当に被害を受けるのかどうかを算出してくれたり、最も適した転職先を紹介してくれたり等、AIは劇的に多くの情報アクセスを可能にし、より使いやすくなるよう能力を向上し続けています。

私はGoogle検索が始まった時から、Google検索に関わる業務に従事してきました。ここ数年のGoogle検索において、私が最も関心のあることは、私たちの任務がいかに時代を超越しているかということです。より優れた情報アクセスを可能にすることは私たちの任務基礎であり、そこには、必要な情報アクセスを可能にする良い方法が常に眠っているわけです。それが私たちにとって、より良い検索体験を追求し続ける原動力になっているのです。だから私たちの仕事に終わりはないのです。

引用)The Keyword|Googleより意訳

うーん、とても良いことが書かれていますし、Google検索においては、改めて外部リンク網やコンテキスト(文脈)が重要だということが概念的に分かる内容ですね。
文章は極力主語述語を明確に書くようにしつつ、外部リンクをプロファイルすることでGoogleの(良質であるならば)正しいインデックスとランキングを促進できるよう分析し続け、多角的に検証と追求を続けることが、第3者である私にとっても大切な業務姿勢だということが分かりました。


コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。