次世代の視覚的検索(Google I/O)

Google I/O 2019にて、Google検索がAR(拡張現実)を活かした視覚的な機能を発表しました。既にGoogleの「The Keyword」でも取り上げられていますが、これは興味深い内容でしたので、ご紹介したいと思います。

アトラクション

ふわふわ

AR検索

これからの機能として紹介されていますが、例えばGoogleで「サメ(Shark)」と検索し、そのリッチリザルト内検索結果の「View in 3D」とタップすると、3次元でサメを閲覧・確認することが出来ます。さらに、「View in your space」をタップすれば、ARを使って、実際の今いる空間の中にサメを登場させることが出来ます。それによって、サメの大きさや実物感を捉えることが出来るという仕組みです。以下がデモ画面です。

AR検索

引用)The Keyword

ふわふわ

Google Lensの新機能

また、Google Lensを使った新機能も登場しました。例えばレストラン等のメニューだけを見てもそれがどういう食べ物か分からなかったりします。そういう時はGoogle Lensを使って、メニュー名をタップします。そうすると、メニュー名をテキストで検索した検索結果が画像も含め案内してくれる仕組みです。つまり、テキストを読んでGoogle検索に打ち直して検索しなくても、直観的に知りたい情報を得ることができるようになります。以下がそのデモ画面です。

メニューが何か分かる

引用)The Keyword

他にも、Google Lensでは外国語表記の物(標識でも本でも何でも)にかざすと、その表記部分が自国語に翻訳された物になるという機能も登場しました。さらにGoogleのプログラミング言語であるGoogle Goと連携させることで、Google Lensをかざした部分の言葉を読み上げてくれる機能もあります。これは、目の不自由な人にとってはある程度有益となるのではないでしょうか。

ふわふわ

直感性と直観性を重視した機能

今回ご紹介した内容はGoogle I/Oで発表された新機能や開発要件の中の一部ではありますが、個人的には非常に感動しました。直感的なLensの機能はもちろんのこと、直観的なARを活かしたことによって、バリアフリーとか言語フリーとかも包括したものとなっており、まさしく次世代検索の在り方を具現化したと感じました。

いやぁ、どんどんすごくなっていきますねぇ~。

しかし、この開発スピードに対して「理解できないよ、もう」と思っている人――まだ遅くありません。是非Googleによる「はじめてのAI」を勉強しながら理解を深めてみてください。


関連記事

目次の順序はランキングに影響する?

コラム等の記事を読んでいると、どの記事も面白いように「とは」「種類」「メリットデメリット」「使い方」「注意点」の順番で目次設定されていて、その通りのストーリー順序で記事化されています。これは以前にも私は触れています。しかし、この順序はSEO評価(検索順位が上がりやすいこと)に繋がるのでしょうか。私の ...(続きを読む)

検索結果タイトル生成アップデート

Googleは米国現地時間8月24日、Webサイトページを検索結果に表示する際、タイトルを生成する新しいシステムを導入したと発表しました。記事内容を和訳しながらご紹介したいと思います。 検索結果表示のタイトルについて 元々、ずいぶん前からタイトルの書き換えは起こっていました。私も以前記事にしていまし ...(続きを読む)

Googleが検索の仕組みを案内

もう何度も何度も何度もGoogleは案内してきていると思いますが、改めてGoogleは「Google検索の仕組み」ページのデザインをリニューアルして公開しました。合わせてThe Keywordでもその内容を案内していますので、和訳してご紹介します。 Google検索の仕組みについて 新しくGoogl ...(続きを読む)

構造化データテストツールは別モノへ

2020年の7月に構造化データテストツールが廃止予定であることをGoogleは予告していました。要はリッチリザルトテストツールに統合されるという話でした。そして8月9日に構造化データテストツールはSchema.orgのテストツールとして変貌しました。 そもそもどうだったの? もともと、構造化データの ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。