• GSCにrobots.txtレポート機能

GSCにrobots.txtレポート機能

Googleは米国現地時間11月15日、Search Consoleに新しくrobots.txtレポートの機能が追加されたことを発表しました。従来からあるrobots.txtテスターは廃止となります。併せて英語版のSearch Console Helpのドキュメントも更新されていますので、その辺りも含めてご紹介します。

新しいSearch Consoleのrobots.txtレポート機能の発表です。このレポートは[設定]から利用できます。また、ページインデックスレポートからも関連情報を入手できるようにしています。この機能追加に伴って、robots.txtテスターを廃止します。新しいヘルプセンターページをご確認ください:https://support.google.com/webmasters/answer/6062598

引用)@googlesearchcより和訳

どういうこと?

Google Search Consoleのサイドメニューにあった[以前のツールとレポート]項目からrobots.txtテスター機能が無くなり、新しく[設定]から[クロール]の[robots.txt]でGoogleの処理状況や再クロール申請を出来るようになりました。
 

robot.txtレポート
 

robots.txtをアップしていれば、こちらの項目から申請やステータス、再クロールが出来るという機能です。この機能が使えるのは、Search Consoleに登録しているのサイトがドメインプロパティ(ルートドメインやサブドメイン)単位やパス(サブディレクトリ展開)の無いURLが対象であって、サブディレクトリ以下で登録しているサイトは対象外とのことです。
 

このレポートは、ドメインレベルのプロパティに対してのみ機能します。つまりは以下の条件です:

引用)Search Central Helpより一部和訳

 

合わせてSearch Consoleにおけるrobots.txtに関する機能ドキュメントも大幅に更新されました。左は新しくなった英語版で、右はまだ古い日本語版です。英語版ではrobots.txtレポートについての説明ドキュメントになっていて、日本語版はrobots.txtテスターについての説明ドキュメントになっています。
 

ドキュメントの違い
 

robots.txtテスターでは、記述したrobots.txtが正しく機能するかどうかも確認できましたが、そういう機能は無くなってしまいましたね。まぁ、robots.txtをミスる人もいないという前提なのかもしれませんし、間違っていたらインデックスレポートからも確認できるので(robots.txtでブロックしています等)、不要と判断したのかもしれません。とはいえ、結構間違えて記述してしまう人もいるので不安ですね…。

Disallowは慎重に

ちなみに、私が見てきている中で、robots.txtで一番ミスりやすいのは、Disallow:設定です。例えば、example.com/ex1/categoly001/ だけをクロールを制御したいにもかかわらず、Disallow:example.com/ex1/と記述したせいで、example.com/ex1/categoly002/ 等の全てのページURLまでブロックしてしまった等です。この手のミスは結構あちこちで頻繁に起こっているようですのでご注意ください。とはいえ、そういうのも後でSearch Consoleのインデックスレポートで確認できますので、短期的な注意点って感じですかね。

既に普通にrobots.txtを運用している人にはそこまで重要な更新機能ではなかったかもしれませんが、一応ご確認ください。

カテゴリー

新着記事

人気記事

過去記事