• 2023年5月の米オフィスアワーより②

2023年5月の米オフィスアワーより②

2023年5月に米国本国で行ったEnglish Google SEO office hoursについて、フォローアップ記事を和訳した前回の続きです。今回は質問の全27個中、残りの13個のご紹介です。今回は本当に特に興味深い質問がありませんでした(笑)。なので、最後に私からの質問を書きました。

質問と回答

2023年5月GoogleSEOオフィスアワーの議事録です。何かあればGoogle Search Centralのヘルプコミュニティへ質問できます。今回ご紹介するのは、全27質問のうち後半の13個です。なんか、そもそもGoogleに質問する内容ではないのも含まれていますが…まず和訳したものをご紹介します。
 

15.サイトのデザイン変更後にトラフィックを増やすための最適な方法は?

John:次はこちらの質問です。「サイトのデザイン変更後にトラフィックを増やす最善の方法は何でしょうか?」

サイトのデザイン変更には様々な方法があります。中には、サイトデザイン変更後に新しいURLや全く新しいページ構成で、本質的に全く別の新しいサイトになることもあるでしょう。そのような場合は、サイト移転と同じ扱いで、リダイレクトも含めて行わないとリニューアル後すぐにアクセス数が落ちてしまう可能性があります。あなたのサイトの場合、時間の経過と共にゆっくりとトラフィックが減少しているように見えます。これはデザイン変更が主な要因ではなく、検索やWeb、あるいはユーザーの行動や評価が時間の経過と共に変化していることを示唆していると考えられます。これは技術的な問題ではなく、サイトを取り巻く環境や外的要因を理解し、それに合わせてサイトを改善することが重要です。とはいえ、決して簡単なことではないです!
 

16.オーガニック検索のGooglebotは、クロールしたページの全てをレンダリングしていますか? そうでない場合はどういう頻度で行われますか?

Martin:Jasonからの質問です。「オーガニック検索用のGooglebotは、クロールした全てのページをレンダリングしますか?もしそうでなければ、どういう頻度で行われますか?」

この質問の回答としては「はい」とも言えますし「いいえ」とも言えます。クロールしたすべてのページがレンダリングされるわけではありません。例えば、404エラーページにつながるクロールされたページはレンダリングされません。クロールして問題がないページは、その時に全てレンダリングされます。
 

17.無効なページにschema.orgの構造化データのマークアップすることは問題ないのでしょうか?

Gary:Matthiasの質問です。「無効なページにschema.orgの構造化データをマークアップすることは問題ないのでしょうか?(例:推奨プロパティである、offers / review / aggregateRatingがないproductマークアップ)。」

単純に「はい」ですし、しっかりと考えて答えても「はい、その通り」です。なぜなら解析できなければ使われないからです。マークアップしていても、スニペット下部のリッチリザルトとして表示される特性を活かせなくなります。
 

18.リダイレクト302からリダイレクト301に変更する方法は?

John:Hazimが質問しています。「リダイレクト302をリダイレクト301に変更するにはどうすればいいですか?」

これについては、あなたのサイトのホスティング業者やドメインレジストラに問い合わせる必要があります。とはいえ朗報として、Google検索は長期間の一時リダイレクトを恒久的リダイレクトとして認識するため、あなたのサイトにとっては現時点ではそこまで重要ではありません。理論的に正しいリダイレクトを使用するのは良いことですが、Google検索はリダイレクトである以上、あなたのサイトが設定したものを正しく認識しようとします。
 

19.広範囲のボイラープレートコンテンツ(共通テンプレートコンテンツ)は、Webサイトに害を及ぼしますか?

Gary:Ananからの質問です「こんにちは、広範囲なボイラープレートコンテンツはWebサイトに悪影響ですか?連絡先やプライバシーポリシーなどのことを指しているのではありません。ご回答よろしくお願いします。」

原則、広範な定型文だからといってGoogle検索の評価に大きな影響を与えないはずです。とはいえ、ユーザーがその広範な定型文をどのように受け止めるかについて考えたほうがいいでしょう。もしかするとユーザーから全く好まれない定型文もあるかもしれません。
 

20.ページのJavaScriptをレンダリングする際に、Googlebotが高価な外部APIを呼び出すのを防ぐにはどうすればよいですか?

Martin:Matthewの質問です。「ページのJavascriptをレンダリングする際に、従量課金される外部APIにGooglebotが来ないようにするにはどうしたら良いでしょうか?」

robots.txtでAPIを許可しないように設定することができますが、クライアントサイドレンダリングを使用していて、ページのコンテンツがそのAPI側に依存している場合は、GooglebotがAPIにアクセスしてしまうのでご注意ください。そうでない場合、robots.txtで許可していなければ、Googlebotがページを見た時に、そのコンテンツは無いものとして扱います。robots.txtでアクセスを禁止した外部のサードパーティーのURLについては、JavaScriptのAPI部分を条件付きで読み込みつつ、Googlebotがページをリクエストした時に呼び出しをスキップさせることができます。
 

21.SEOの順位を落とさずにドメイン名を変更する方法はあるのでしょうか?

Gary:mu.seのD.rayさんからの質問です。「SEOのランキングを落とさずにドメイン名を変更する方法はあるのでしょうか?」

ドメイン名変更を含むサイト移転を上手く行えるのであれば、トラフィックの減少が続くことはないはずなので、答えは「はい」ですね。サイト移転に関するドキュメントをご覧ください。また他の専門家が作成したガイドにもリンクしています。
 

22.私のブランドのファビコンを1ヶ月以上前にアップロードしました。しかし、Googleでは私のWebflowファビコンはまだ変わっていません、なぜでしょうか?

John:Joshからの質問です。「私のブランドのファビコンを1ヶ月以上前にアップロードしました。しかしGoogleでは、私のWebflowファビコンはまだ以前のままです。直近でアップロードしたファビコンを表示する方法はありますか?」

ファビコンに関するヘルプドキュメントがありますので、私ならまずはそれを見て詳細を確認します。また、古いファビコンがあなたのサイトから完全に消えているか、まだリンクされているかを確認した上で、理想的には古いファイルから新しいファイルにリダイレクトします。要は、全てのファビコンが一貫していることを確認し、検索エンジンに誤解されることがないようにするのです。その対応が済めば、変化が確認できるまで1カ月もあれば十分でしょうが、他にも修正すべき点が見つかれば、もう少し時間をかけてもいいと思いますね。最後にGoogleの社員ではありませんが、Glenn Gabe氏が素晴らしいファビコンの問題解決に関するガイドを作成していますので、そこでも何かヒントが見つかるかもしれませんね。
 

23.Webサイトが複数の言語で記事が書かれている場合(人が手作業で翻訳)、コンテンツを分割するためのベストプラクティスはありますか?

Gary:Vからの質問です。「もしWebサイトが複数の言語で記事を書いている場合(手作業で翻訳)、コンテンツを分割するためのベストプラクティスはありますか?

そのやり方は本当にあなた次第です。ヘルプセンターで推奨しているように?hl=jaのようなURLパラメータを使うか、URLパスに言語コードを記述するかは、検索の観点からは重要ではありません。ただ、言語バージョンごとにユニークなURLであることは前提です。
 

24.Googleはドロップダウンのリンクを受け入れていますか?

John:Michalからの質問です。「Googleは<select><option value=”https://www.examplepage.com”>Page</option>のようなリンクを受け入れるのでしょうか?それは正常に対処しますでしょうか?」

私たちはこれをリンクとして処理しませんが、URLを認識して個別にクロールすることはあります。もしリンクとして扱って欲しいのであれば、それが通常のリンクとして成立しているか確認してください。先日、リンクの作り方に関するガイドラインを公開しましたので、サポートされているものについてWeb制作者側から質問があれば、そちらのほうに送っていただくのが良いと思います。ちなみに、このHTMLの組み合わせですと必ずしもブラウザ上でリンクとして機能するわけではなく、フォームのドロップダウン等に使われるものです。
 

25.Google Search Consoleで“アクセスできません:robots.txt”と表示されてしまうのはなぜでしょうか?

Gary:Aslam Khanからの質問というか、次のように述べています「Google Search Consoleで“アクセスできません:robots.txt”と表示されます。」

Search Consoleで“アクセスできません:robots.txt”と報告されている場合、あなたのサイトやサーバ側に問題があり、Google検索上であなたのサイトを見たい場合は、それらを修正する必要があります。Google側では、これに対してできることは本当に何もありません。私ならまず最初に確認するのは、サーバーのファイアウォールのルールです。ファイアウォール設定のブロックに関わるルールの中に何か妨げとなるものがないか確認し、次にサーバーの設定ファイルに移ります。もし、自分でこのやり方を知らない場合は、ホスティングプロバイダにサポートチケットを送れば、彼らがあなたを助けてくれる可能性が高いでしょう。
 

26.サイトマップにhreflang URLが記載されている場合、<lastmod>や<priority>などのプロパティはどのように影響しますか?

John:Carlosからの質問です。「サイトマップにhreflang URLが記載されている場合、<lastmod><priority>のようなプロパティはどのように影響を与えるのでしょうか?」

サイトマップファイルでhreflangアノテーションが指定されている場合、基本的に他のURLを参照することになります。そのため、hreflangが設定されているすべてのURLを確認する必要があります。しかし、URLをクロールするタイミングについてはまた別の話です。クロールする上で、その特定のURLの属性、例えば最終更新日時を確認します。そして、それが翻訳箇所の修正だけの場合は、ある特定の言語バージョンだけが個別に変更されると思います。とはいえ、最終更新日は他のシグナルと比べても、かなりざっくり認識するので、それだけでそのページがすぐに再クロールされるとは限りません。また、クロール回数が多いからといって、ページの順位が上がるわけでもないので、無理にクロール頻度を増やそうとする必要もないでしょう。
 

27.アフィリエイトリンクは.robots.txtでブロックすべきでしょうか、それともdisallowを解除してアフィリエイトリンクがインデックスされないようにすべきでしょうか?

Gary:Nick van Schaikの質問。「robots.txtでアフィリエイトリンクをブロックすべきか(クロール資産を確保するため)、disallowを解除してアフィリエイトリンクがインデックスされないようにすべきでしょうか(noindexタグを使って)?」

robots.txtでアフィリエイトリンクをブロックするのは、賢明な方法だと思います。私たちもアフィリエイトリンクを認識し、上手に無視することはできますが、robots.txtのdisallowを使えば確実に制御することができ、確かにクロール予算を大幅に節約することができるかもしれません。

引用)Google SEO Office Hours|Search Centralより一部和訳

 

うーん…今回も目ぼしいものはありませんでしたね。敢えて挙げるのであれば「多言語展開し、それぞれアノテーションで繋げているページの中でひとつだけ変更した場合の<lastmod>はクロールにどう影響しますか?」という質問に対して、「部分的な改修であれば部分的にクロールしてインデックス変更するかもしれないけど、<lastmod>を正確に認識するわけではないので、すぐにクロールされるとは限らない」とGoogleが回答しているところですかね。要は「まぁ、それなりに」って回答ですね。大体どの回答もそんな感じの印象かと(笑)。

検索結果0件は表示すべきか否か

今回のオフィスアワーには関係ない話なのですが、こうしてオフィスアワーでのGoogleの回答を読んでいると以下のようなやり方について、私自身、疑問を抱くようになりました。
SEOに造詣が深い方に質問です。あなたなら下記の1.と2.のどちらを選びますか?

Q.求人や物件、EC等でサイト内の検索結果が0件のページに対する対応について

  1. システムで自動的に404ページを返す、またはnoindex化されるように設計する。
  2. そのまま0件表示にしてGoogleの判断に任せる。

 

私は、ずっと1.(特にnoindexのほう)で考えていました。理由は(大規模でなければ関係ないとはいえ)クロール資産、あとは0件ページの大量化によるサイト全体への悪影響(スカスカなページばかりのWebサイトだと判断され、マイナス評価に繋がる)、の2点でした。
しかし、最近は2.で考えています。おそらくソフト404ページ扱いされるかもしれませんが、ソフト404ページがあることが悪いわけでもなく、またGoogleがそれをどう判断するかに任せた方が自然ではないのか、というのが理由です。他にも、1件になったらnoindexが解除されて、また0件になったらnoindexになって…でも結局1件でも場合によってはソフト404になる可能性も高く(サイト内の他の検索結果ページにも含まれる1件であればそうなりますよね)、そういう状況も考えればGoogleに任せた方が良い、という点も考えられます。さらに、0件であっても、類似した求人や物件、商品をレコメンドしてあげることで、検索ユーザーに新設な設計をしてあげればそれはGoogle検索からも評価されるかもしれません。でもレコメンドしたくてもシステムで自動的にnoindexが記述されるようになっていては改修が面倒です。

こういった点から、今の私は2.を選択します。最近のオフィスアワーをずっと読んでいるとやはりそちらの方が自然な気がするんです。

皆さまでしたらどちらの選択をしますか?

カテゴリー

新着記事

人気記事

過去記事