• 11月のGoogleオフィスアワーより①

11月のGoogleオフィスアワーより①

Googleが米国現地時間11月29日に行ったEnglish Google SEO Office Hoursに関しまして、色々と模索しながらSearch Central Blogにその際の内容を掲載していました。内容としては、SEO(Google検索)に関する一般からの質問に対して、Google検索チームの社員(Gary Illyes氏、Lizzi Sassman氏、John Mueller氏、Alan Kent氏、Duy Nguyen氏)が回答していく内容です。これまで数ヶ月に渡り色々見せ方を考えているようですが、今回のようにSearch Central Blogでもフォロー記事を出す試みは新しいかと思います。そこで、今回記事に上がっていた内容を一部和訳して数回に分けてここのブログでご紹介したいと思いました。全てをご紹介するのではなく、興味深い内容のみをピックアップしていく予定です。

質問と回答

Search Central Blogに紹介されている質問と回答のみを和訳してご紹介します。全部で48個の質問がありますが…まぁ、18前後で3回に分けてご紹介していきます。

構造化データにおいて、1つのSchemaプロパティフィールドにコンマ区切りで複数の値を記載することはできるのか?
「たとえば、GTINプロパティに値1,値2と同じようにコンマを使用して、1つのプロパティに複数の値を使用することはできますか?」ということだと思いますが、構造化データの種類やプロパティ機能ごとに推奨方法が異なるため、通常同様、該当する機能単位でドキュメントを確認してください。ただし、一般的には、1つのフィールドに1つの値を指定するのが適切なマークアップ方法です。GTINの場合、固有の商品IDであるため、実際には値は1つである必要があります。GTINとISBNの両方を指定する場合は、GTINプロパティを使用してからISBNプロパティを使用してくれれば、どちらのプロパティを適用するか判断しやすいです。
 

Search Consoleにおけるドメインプロパティの削除ツール機能の使用方法について
「現在、Search Consoleの削除ツール機能はドメイン別では利用できませんが、他に異なるドメインを削除したい場合にどのような方法がありますか?」とのことです。ドメインレベルでSearch Consoleに登録されている場合は、追加作業を必要とせずにプレフィックスレベルで検証できます。該当箇所を確認し、必要な作業を行ってください。不自然なリンクや、第3者ツールがフラグを立てたからと言っていちいちそのリンクを否認するのは時間の無駄です。そういった行為をしても何も変わりません。実際のリンク削除をしたにも関わらず、それでも表示が消えない場合は、リンク否認ツールを使用してください。
 

マネタイズのためにゲスト投稿を受け入れているサイトに対して、ヘルプフルコンテンツアップデート(システム)による影響は?
Googleのシステムは、低価値、低品質のコンテンツ、または検索エンジン専用に作成されたコンテンツを含むサイトを識別します。コンテンツやリンクをしっかり検証せずにゲスト投稿として受け入れるならば、Googleが既に導入している他の検索システムによって、該当ページの検索評価を下げる可能性があるでしょう。
 

Googleがcanonicalタグを正しく検出しない場合はどうすれば良いですか?
そもそも、正規化はlink rel=”canonical”要素だけに基づいているわけではありません。Googleが非常によく似た内容のページURLを複数検出すると、システムとして最適なコンテンツであるページURLを1つ選択する働きがあります。その際は、link rel=”canonical”だけでなく、リダイレクトやXMLサイトマップ、内部リンク、外部リンク等も考慮します。どのURLを使うべきかについて強く指示したいのであれば、こういったすべてのシグナルが適切に一致するようにしてください。正規化は大抵、どのURLを表示するかということに過ぎず、コンテンツのランキングに影響を与えるようなものではありません。
 

コンテンツが短い方が、Googleはページをクロールしてインデックスしやすいのか?
「あまり頻繁に検索されない内容が多いディレクトリがある場合、コンテンツが少ないと、Googleはページのクロールとインデックス登録をする可能性が高くなるため、簡単にインデックス登録できるのは本当でしょうか?」という質問ですが、これはおもしろいですね。コンテンツの長さがクロールの頻度やインデックス登録に影響することはありません。また、URLパターンがクロール率に影響することもありません。例えニッチなコンテンツであろうともインデックスされることがあります。一般的にはネット上で人気なコンテンツ(例:多くの人がリンクしている等)は、クロールされやすく、インデックスされやすいでしょう。
 

商品画像がインデックスされない理由として、商品一覧が動的生成されていることは考えられるでしょうか?
商品画像がインデックスされない理由として、一覧が動的にソートされていることが原因である可能性は低いでしょう。商品画像は商品説明ページで参照されている必要があり、その画像の対象商品が分かるようになっています。画像表示を重要視するのであれば、画像用のサイトマップファイルを作成するか、Google Merchant Centerのフィードを提供しリスティングページに依存せずともGoogleがすべての商品ページを見つけることができるようにすると良いでしょう。
 

サイトの移行期間は決まっているのか?
「サイトの移行期間は決まっているのでしょうか? 現在、大規模サイトを新ドメインに移行しているのですが、4ヶ月経っても新ドメインが旧ドメインの時の検索順位を獲得する兆しがありません。どうすべきでしょうか?」とのことですが、このような大きな変化——特に移行の最中であれば順位が変動するのは通常のことです。いつ落ち着くかという移行期間はなく、だからといってサイトの一部分だけを少しずつ移動しても、検索に関しては必ずしもサイト全体の移動を理解するものではないことを念頭に置いてください。まだ移行作業をしているのであれば、順位変動は続くでしょう。他に何をすべきかは、サイトそのものを見てみないと何とも言えません。また、サイト固有のヘルプについては、フォーラムに投稿していただくとお客様の具体的な状況が分かりますので、より具体的なアドバイスをしてあげられるでしょう。ぜひ投稿してみてください。
 

HTTP/3を使用によりパフォーマンスが向上し、SEOが改善される可能性はある?
「HTTP/3を使用すると、間接的にパフォーマンスが向上するため、SEO改善に寄与するでしょうか?」のことですが、Googleは今のところHTTP/3をランキングの要素として使っていません。私の知る限り、Google自身もHTTP/3をクローリングに使っていません。HTTP/3を使用することによるユーザーメリットとして、Core Web Vitalsに大きな影響を与えるとまではいかないでしょう。サーバーを速くすることは常に良いアイデアですが、HTTP/3の使用がSEOへの直接的関連性があるかは疑問です。同じように、サーバーにおけるより高速なRAMの使用とSEOの直接的な関係を見出すのも難しいでしょう。
 

Googleがバックリンクをランキング要素として使い続けるのはなぜか?
「リンク構築キャンペーンは許されていないのに、なぜGoogleは外部リンクをランキング要素として使い続けるのでしょうか? 外部リンクみたいな安直なものではなく、他に有益な代替ランキング要素をGoogleがいまだに見い出せないのはなぜでしょう?」という質問ですが…ここで、いくつか解説していきましょう。まず、ランキングシグナルとしての外部リンクは、何年も前にGoogle検索がスタートした頃と比べると、その影響度はかなり小さくなっています。Googleは、すべてのクエリに対して最も関連性が高く有益な結果をランキングできるようにするために、何百もの強固なランキングシグナルを使用しています。次にリンク構築キャンペーンですが、これは基本的にGoogleのスパムポリシーに抵触したリンクスパムです。Googleは不自然なリンクを大規模に検出し、無効化することができる多くのアルゴリズムを持っています。つまり、リンクに資金をかけているスパマーやSEO業者は、支払った有料リンクの効果が実際に価値あるものかどうかを知りようがありません。なぜなら、これらのスパム的なリンクはすべてGoogleのシステムによって無効化されている可能性が高いからです。
 

内部リンクのアンカーテキストの大半が同じであっても問題ないのでしょうか?
問題ありません。詳細メニューに関しては、大抵どこもそうですし、ECサイト内でリンクされている商品であっても、通常は常に同じようなアンカーテキストでリンクされています。それ自体は全く問題ありません。SEOの観点から実際に行う改善作業も特にありません。

引用)Search Central Blogより一部和訳

 
ここまでで特に言及する程の内容は無いですね…。当然の話ばかりでした。というわけで、1つ分かりにくい質問があったのでそれを割愛し、次の質問集に進みます。

noindexページが多すぎると、クロール検出やインデックス登録に支障が出るのでしょうか?
いい質問ですね。noindexは、サイトオーナーが検索エンジンにインデックスからコンテンツ排除するために、非常に明確で強力な方法です。そのため、クロールとインデックスに関しては、それ以外に意図しない影響が出ることはありません。たとえ多くのページをnoindexに設定しても、Googleがサイトをどのようにクロールし、インデックスするかには影響しないでしょう。
 

URLとページが同じ言言葉を使用していなくても問題ないですか?
「URLの中に、ページで使われている言葉が含まれていない場合、サイトのランキングに影響するのか」とのことですが、SEOの観点からはURLの内容とページの内容が異なっていても、悪影響はありません。しかし、ユーザーの中には、特にそのURLを他の人と共有する場合において、気になってくることはあるでしょう。
 

スクレイピングやスパムを行うサイトに対して、クリエイターはどう対応すべきか?
「AIを使ってコンテンツを盗用したり、改変したりして、検索結果上位に表示するサイトに対して、コンテンツ制作側はどう対応すべきでしょうか?」とのことですが、コンテンツのスクレイピングは、たとえ多少の修正が加えられていたとしても、Googleのスパムポリシーに反しています。Googleは、そのような行為を追及し、他のサイトからコンテンツをスクレイピングするサイトの掲載を降格させるアルゴリズムを数多く持っています。もし、繰り返しコンテンツをスクレイピングしているサイトが検索で上位に表示されているのを見かけたら、スパム報告フォームからお気軽にご報告ください。
 

Googleがインデックスしたページをローテーション掲載させるというのは事実ですか?
「Googleがインデックスページをローテーションで掲載させるというのは本当ですか? 私のサイトは、インデックスされるページがローテーションしています。例えば、ページAは月曜から木曜までインデックスされているが、金曜から日曜まではインデックスされていません。」とのことですが…これは事実ではありません。Googleは、曜日を基準にインデックスをローテーションさせる機能はありません。
 

インデックスされるページとされないページの比率に目を向けるべきでしょうか?
「インデックスに登録されていないページのせいで、クロール資産が損なわれている可能性を探るべく、Search Consoleでインデックス登録ページと登録されていないページの割合を見ておく必要があるのでしょうか?」とのことですが…気を付けるべき割合なんてありません。また、100万単位のページ規模サイトでなければ、クロール資産を気にする必要はないでしょう。不要な内部リンクを削除するのは良いことですが、中小規模のサイトでは、それはSEOというよりもサイトの衛生管理(使い勝手)として理解した方が良いでしょう。
 

Google Discoveryで表示してもらうためには?
WebサイトページをDiscoverで表示されるために、何か特別に行う作業はありません。Googleが自動的に行います。しかし、Googleは一般検索表示とDiscoverの表示においてそれぞれ違う基準で決定します。そのため、検索からの流入があるからといって、Discoverでも表示されたり流入されたりするとは限りません。
 

スパムサイトからリンクされた多くのnoindexページがあると、クロールバジェットに影響がありますか?
「多くのSEO担当者が、何百万ものURLがGoogle Search Consoleでnoindexによるインデックス未登録ページを指摘してきます。全部スパムサイトからリンクされた存在しないサイト内検索結果ページです。これはクロール資産に影響しますか?」とのことですが…noindexはインデックスに載らないようにするためにあるのであって、先ほど言ったように意図しない悪影響が出ることはありません。もし、これらのページやそのURLがGoogleのインデックスに載らないようにしたいのであれば、noindexを使い続ければ良いだけで、クロール資産を気にする必要はありません。
 

長い記事を分割表示すると低品質コンテンツになる?
「長いテーマを扱う記事を小さな記事に分割してページネーションした場合、低品質コンテンツとみなされるのでしょうか?」とのことですが、内容を見ないと分かりませんが、文字数だけで内容が薄くなるとは言えません。あるトピックを深く掘り下げる徹底的な記事も良いですし、分かりやすく段落で分割するのも同様に良いと思います。トピックとそのページのコンテンツにもよりますが、読者のことを一番良く理解しているのは質問者様のはずです。ですので、私だったら読者にとって何が最も役に立つか、そして、どんなトピックであっても、各ページで十分な価値を提供できているかで判断します。
 

404ページがたくさんあると、クロールや検知処理に支障が出るのは事実?
「HTTPSレポートヘルプセンターの資料によると、404ページがたくさんあると、GoogleがURLのクロールと処理を停止するように促されることがあるそうです。404が多いというのはどの程度になりますでしょうか? また、Webサイト内にリンクされた404がたくさんあると同様に影響するのでしょうか?」とのことですが、これは申し訳ございません。ご指摘ありがとうございました。まず、404ステータスコードによってサイトレベルでのクロールが停止することを示唆していたGoogleのドキュメントのタイプミスを修正しました。404エラーではなくHTTPS証明書エラーとすべきでした。404エラーはどれだけあっても問題ありません。404エラーは、Webサイト全体のクロールに影響を与えることはありません。404ページは、インターネットにおいて非常に健全な内容です。

引用)Search Central Blogより一部和訳

後半は少し面白い内容もありました。是非気軽に読んでいただければと思います。

クロール資産やインデックス未登録ページ数を気にするな

今回の気付きと言いますか…もともとGoogleは公表しているのですが、何かにつけて「クロール資産が…」「余計なページが多すぎて、ちゃんと登録されたページを充分にGoogleがクロールしてくれないんじゃないか」等という質問に対して、いつもGoogleは「問題無い」と一蹴しています。今回も404ページやnoindex、コンテンツ量等とクロール&インデックス頻度の因果関係を求める質問が多かったですが、Googleは否定していますね。「それよりもユーザーへの使い勝手として考えてくれ、SEO上は問題ないから」と言っています。

とはいえ、実際のところ、どうなんでしょうね…。
インデックス未登録が多いWebサイトにおいて、ページ修正の反映がなかなか検索結果に影響しないケースも多く見受けられます。相関性があるのでしょうか…。これは私の意見ですが、クロール頻度はWebサイトの大きさや更新性によって、ある程度割り当てられており、その割り当てが見当違いになるようなことはないはず、ということです。ですので、インデックス未登録の多いサイト(404でもnoindexでもリダイレクトでもcanonicalでも)だからクロールされないとかインデックスされにくいというのは直接的な影響はないと思うのです。むしろ「インデックス未登録の増加を放置する程、杜撰な管理をしているくらいの人が作るサイトのコンテンツ力は、大したことない」くらいの考え方かもしれませんね(笑)。決めつけた意見ではありますが、相関性の有無はそれくらいのレベル感の話だと思います。

また、これも私の感想ですが、私は「検索結果画面上で修正の変化が出ているなら検索評価も間もなくされるのではないか」という感じのイメージを持っています。つまり、ページ修正によって検索順位の再評価がされない、ということは…そのページ修正は検索評価を覆すほどクリティカルな内容ではなかった、に過ぎないのではないか、ということです。

いずれにしましても、同様のケースにおいてクロールやインデックスに何かあった時でも「Googleが関係ないと言ってるなら…」くらいで留めておきつつ、他の手段やアプローチを考えたほうが良いでしょう。

カテゴリー

新着記事

人気記事

過去記事