noindexとrobots.txtの因果関係

何かしらの運用上の都合で生成されたページをGoogleのクローラーに読み込ませたくない場合、まずはどうされますか?1ページだけならまだしも、それが何十、何百ページもあったら…今回はそんな時の注意点をふわふわさせていただきます…。

フェンス

ふわふわ

noindexの役割

そもそも、Googleでインデックスさせないようにするためには、head内のmetaタグとしてnoindexを記載します。

サイトのページをほとんどの検索エンジンウェブクローラのインデックス登録対象から除外するには、次のメタタグをページの<head>セクションに挿入します。
<meta name=”robots” content=”noindex”>

ページのインデックス登録をGoogleウェブクローラのみが実行できないようにするには:
<meta name=”googlebot” content=”noindex”>

検索エンジンウェブクローラによってはnoindexディレクティブを別の意味に解釈する可能性があります。このため、他の検索エンジンではページが検索結果に引き続き表示される可能性があります。
引用元)Search Console ヘルプ|Google

 
ちなみに、インデックスはさせないページだけど、そのページからのリンクは辿ってほしいという場合は<meta name=”robots” content=”noindex,follow”>と記述しておくと良いと思います。一応、<meta name=”robots” content=”noindex”>でも同じ扱いにはなるようですが、念のため記述しておくと良いでしょう。逆に、nofollowを設定すると、該当ページからの発リンクはどこに対してもページランクを受け渡さないという解釈になります。従ってリンクすら辿らないでほしい場合は<meta name=”robots” content=”noindex,nofollow”>と記述します。

ふわふわ

robots.txtの役割

robots.txtとは、Googleをはじめとした検索エンジンのクローラーに対してアクセス制限(クロール制限)をかけるためのファイルです。特に何もなければ
User-agent: *
Sitemap: //fuwafuwa.biz/sitemap.xml

を記載する程度だと思います。

また、robots.txtでもnoindexのシグナルを送ることは可能です。例えば、このふわふわビジネスブログで/0000/というディレクトリ以下のページを読み込ませたくない場合は
User-agent: *
Noindex: /0000/
Sitemap: //fuwafuwa.biz/sitemap.xml

と記載することで、前述のhead内各ページのmetaとして入れ込むのと同じ働きをします。いちいち該当ファイルに書き込むようなことをしなくてもrobots.txtでの記載だけで済みますので、数多くのページをnoindexしたい場合は有効です。

※ 2017年現在、Googleはrobots.txt内でnoindexを書き込むことをサポートしなくなっています。いつ機能が無くなるかも分かりませんので、現在はrobots.txtにnoindexのシグナルを送ることは非推奨とお考えください。
※ 2019年9月1日をもって、robots.txt内でnoindexのディレクティブへのサポートは終了です。従ってnoindexはページhead内のmetaで記載するようにしてください。

ふわふわ

注意点

ここでnoindex時の注意点です。GoogleのSearch Console ヘルプでは、以下の記載がございます。

重要:noindexメタタグを有効にするには、robots.txtファイルでページをブロックしないでください。ページがrobots.txtファイルでブロックされると、クローラはnoindexタグを認識しません。そのため、たとえば他のページからリンクされていると、ページは検索結果に引き続き表示される可能性があります。
引用元)Search Console ヘルプ|Google

 
どういうことでしょうか?
要は「noindexを設定したところで、クローラーがインデックスしないだけで(≒検索結果に出さない)、アクセスはするので(≒読み込みに来る)、だったらrobots.txtにDisallowとして書き込んじゃおう」という考えです。確かに、noindexさせたところで、クローラーはそのページにはアクセスしますので、アクセスするくらいなら、その分他のページを読んでもらった方が効率が良いわけです。前述の/0000/の例で記載すると
User-agent: *
Disallow: /0000/
Sitemap: //fuwafuwa.biz/sitemap.xml

となるわけです。しかし、ここには順序がございます。まずは私の描いたイメージ図をご覧ください。
 
noindex disallow
 
robots.txtはアクセスを制限するものですので、サイト内に入る”扉”のイメージです。一部のページにおいてDisallowとしてその”扉”を閉める(=ブロック)と、もうクローラーは入って来れなくなります。ですので、そのページにはクローラーはアクセスしません。しかしながら、noindexの対象となるページが既にインデックスされているページであったら…noindexのシグナルを送っても、それをクローラーは確認することが出来ませんよね。
結果、Disallowを設定しても、いつまでもインデックスされ続けてしまうわけです。

ふわふわ

しっかりとnoindexを促進してから

インデックスさせたくないページをそもそもクローラーに来させたくない、という逸る気持ちも分かります。しかし、まずはnoindexを充分にシグナルとして送り、インデックスされていないことを確認してからrobots.txtでDisallow設定することをオススメします。noindexを早く促進したい場合は、Search ConsoleでのFetch as Google等を使うと良いと思います。

とにかく順序を間違わず設定するよう心掛けてください。


関連記事
新型コロナウィルスの影響により、実店舗だけでなく(特に物流ビジネスを主としている)オンラインビジネスでも停滞を余儀なくされているサイト運用者もいらっしゃるのではないでしょうか。そんな運営の停滞に伴って、Google検索におけるSEO上の措置についてGoogleが案内してくれていますので、ご紹介します ...(続きを読む)
SEOに向けて分析している中で、「競合サイトや他の業界はどのくらいのペースや頻度でページを増加しているんだろう」と思ったことはございませんか? 以前、before/after:の検索コマンドをご紹介したことはありましたが、厳密に日付単位で順位状況は分かっても、その時期に公開されたページかどうかは分か ...(続きを読む)
コロナウィルスによって、エンターテイメント業界中心に数多くのイベントや催事が世界レベルで中止や延期になっていますよね。経済破綻の恐れもある中で、各運営元も選択を余儀なくされています。そんな時、検索ユーザーに対してもいち早く対応できるよう、構造化データの共同母体であるSchema.orgの情報更新に伴 ...(続きを読む)
最近耳にするようになった「リードナーチャリング」という言葉。マーケティング用語の一環ですが、その名の通り「lead(導いて)」「nurturing(育てる)」という意味からも、潜在顧客にアプローチし購買意欲を高めるための見込み顧客育成として使われます。要はリーチした潜在顧客をCold→Cool→Wa ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。