• 不自然な有料外部リンク例

不自然な有料外部リンク例

様々な取引先のGoogle Search Consoleを分析しながら、結構な量のサイトとその外部リンクを検証しているうちに、どこかの同じ業者(多分複数ある)の有料外部リンク傾向が分かってきました。かなりタフな有料外部リンク施策を行っているようで、その手法に一定の規則性を感じましたので、ふわふわっとご紹介したいと思います。

追いかけっこ

有料リンクの傾向

まず、今回ご紹介する有料リンク元となっているサイトの特徴を以下に並べてみました。後で解説します。

  • オールドドメイン使用
  • Googlebot以外の色々なクロールロボットを排除
  • WordPressで2~8ページのサイト
  • ワードサラダな文章(TD&本文)
  • 有料リンク発注サイトへの発リンクは2本
  • 最適化され過ぎたアンカーテキストで発リンク
  • 一定の期間で剥がしたり差し替える(410や404も活用)

オールドドメイン使用

1,2年ではありますが、オールドドメインを活用しているケースが多いです。個人的に私が思うこととしましては、オールドドメインのメリットとして、ドメインの古さはそこまで関係ないとは思います。しかしなぜ1,2年でもオールドドメインを活用しているのか…恐らくドメイン購入の際に備わっている被リンク数を見ているのかもしません。リンク元サイトとしてある程度の権威性は予め欲しいはずですので、被リンク数の事前確認には慎重になっているのかもしれませんね。

Googlebot以外の色々なクロールロボットを排除

この手のサイトはrobots.txtや.htaccessにGooglebot以外のクローラーを弾く記載をしているケースが目立ちます。以下は、disallow設定することでクロールをさせないUser-Agent例です。

rogerbot(MOZのロボット)、AhrefsBot(Ahrefsのロボット)、naverbot、Mail.RU_Bot、ia_archiver、Yandex、Twitterbot、seznambot、Baiduspider、BaiduImagespider、BaiduMobaider、Megalodon、dataprovider

他のSEO有識者や第3者がこういった被リンク元サイトを検知出来ないよう、飽くまでもGoogleにだけ知らせていることが分かります。.htaccessファイルを使って設定されていれば、第3者からは分かりませんが、robots.txtを使って設定しているのであれば、分かります。逆にここまでクローラーを弾く設定をしているサイトって…不自然ですよね。

WordPressで2~8ページのサイト

まぁ、WordPressです。WPテーマをそのまま使ってアップしているので、ファイル名やXMLサイトマップのプラグインも一定のものです。たまにMT(Movable Type)もありますが、両方のCMSを活用している業者(?)もあれば、どちらか片方に決めている業者(?)もありそうです。ただ、発リンクのためだけの記事ですので、「月間アーカイブ」や「記事アーカイブ」での内部リンク以外はほとんどなく、記事ページがサイト内で離れ小島となっています。サイトとしてはなかなかあり得ない構造ですよね。

ワードサラダな文章(TD&本文)

サイト名も訳が分からなければ、Titleタグもおかしいですし、meta descriptionも変です。もちろん本文もおかしすぎます。「OLの働き方」というTitleタグで「毒キノコを食べたらお腹壊すよなぁ」というmeta description、そして本文では「保険の選び方について―」が書いてあるという…ワードサラダ(単語がサラダのようにバンバン投げ込まれているだけで文章の意味が破綻している)状態です。

有料リンク発注サイトへの発リンクは2本

なぜか、2本綺麗に発リンクされています。理由は分かりません。おそらく、記事がブログ構造のように設置されているので、該当記事ページURLの他に、アーカイブやトップページでの記事紹介URLからも発リンクされているだけだと思われます。しかしもしかしたらこの2本という設計が効果的だという判断があるのかもしれません。

最適化され過ぎたアンカーテキストで発リンク

やはり最適化され過ぎたアンカーテキスト(つまり施策キーワードそのままでリンクされている)でのリンクは効果的なのでしょう。「キャッシング」とか「FX」とか「看護師の求人 東京」とかで設定されているケースが目立ちます。

一定の期間で剥がしたり差し替える(410や404も活用)

以上のやり方…こんなやり方でランキングが上昇するのか…上昇するんです(笑)。本当に順位が上がるんです。なぜなら以下のやり方をしているからです。

① 上記のような不自然な外部リンクを大量に行う。
② Googleのアルゴリズムが検知して、評価され、順位寄与する。
③ 改めてGoogleのアルゴリズム(ペンギンアップデート等)が検知しようとする。
④ 捕捉される前にリンクを剥がしたりページを削除したりする。

つまり、不自然な外部リンクによる効果寄与だけさせたら、手動対応(ペナルティ)を喰らう前に剥がしてしまうんです。しかも410のHTTPステータス(Gone:消滅)を使うことでGoogleの検知を早めたり、単純にリンクを差し換えたり、巧妙なテクニックを活用しています。恐らく検知までにどれくらいの期間が必要で、剥がすまでにどのくらいの期間が適当か、等もしっかりと体系立てて運用していると思われます。
そして、リンクが剥がれることで検索順位が下がらないタイミングで、また別の外部リンクを行います。この作業を山なりに繰り返し行うことで、不自然な外部リンク効果を担保し続けるという仕組みです。

有料リンクの傾向

以上が私の感じた不自然な有料リンクの傾向です。残念ながら、これが非常に効果的です。実際検索順位は上昇しています。当然この施策をやめれば、すぐにいっぺんにリンクが剥がされ、他の競合サイトに貼ったりもされるので、検索順位は下落していきます。

ここにきて外部リンクによる影響が強いのか、こういった施策が顕著に見られます。私が感じるに、恐らく1つの業者だけでなく、こういった手法を行っている業者は複数あるものと見られます。ある会社が始めたこの手法を(誰かが見破ったか、転職者が漏らしたか分かりませんが)真似する業者が増えてきたのでしょうね。

もし私の紹介通りの手法と評価方法が実在しているのであれば、Googleは外部リンク効果とペンギンアップデートが検知するタイミングを同時にする必要があるでしょう。また被リンク年齢や規則性を検知するアルゴリズムの開発も必要になりそうです。

Googleにとって、ブラックハットSEOとは本当にイタチごっこが続きますが、フィードバックを送るほどの確証が得られるまで、私も私なりに調査してみたいと思います。

カテゴリー

新着記事

人気記事

過去記事