不自然な有料外部リンク例

様々な取引先のGoogle Search Consoleを分析しながら、結構な量のサイトとその外部リンクを検証しているうちに、どこかの同じ業者(多分複数ある)の有料外部リンク傾向が分かってきました。かなりタフな有料外部リンク施策を行っているようで、その手法に一定の規則性を感じましたので、ふわふわっとご紹介したいと思います。

追いかけっこ

ふわふわ

有料リンクの傾向

まず、今回ご紹介する有料リンク元となっているサイトの特徴を以下に並べてみました。後で解説します。

  • オールドドメイン使用
  • Googlebot以外の色々なクロールロボットを排除
  • WordPressで2~8ページのサイト
  • ワードサラダな文章(TD&本文)
  • 有料リンク発注サイトへの発リンクは2本
  • 最適化され過ぎたアンカーテキストで発リンク
  • 一定の期間で剥がしたり差し替える(410や404も活用)

オールドドメイン使用

1,2年ではありますが、オールドドメインを活用しているケースが多いです。個人的に私が思うこととしましては、オールドドメインのメリットとして、ドメインの古さはそこまで関係ないとは思います。しかしなぜ1,2年でもオールドドメインを活用しているのか…恐らくドメイン購入の際に備わっている被リンク数を見ているのかもしません。リンク元サイトとしてある程度の権威性は予め欲しいはずですので、被リンク数の事前確認には慎重になっているのかもしれませんね。

Googlebot以外の色々なクロールロボットを排除

この手のサイトはrobots.txtや.htaccessにGooglebot以外のクローラーを弾く記載をしているケースが目立ちます。以下は、disallow設定することでクロールをさせないUser-Agent例です。

rogerbot(MOZのロボット)、AhrefsBot(Ahrefsのロボット)、naverbot、Mail.RU_Bot、ia_archiver、Yandex、Twitterbot、seznambot、Baiduspider、BaiduImagespider、BaiduMobaider、Megalodon、dataprovider

他のSEO有識者や第3者がこういった被リンク元サイトを検知出来ないよう、飽くまでもGoogleにだけ知らせていることが分かります。.htaccessファイルを使って設定されていれば、第3者からは分かりませんが、robots.txtを使って設定しているのであれば、分かります。逆にここまでクローラーを弾く設定をしているサイトって…不自然ですよね。

WordPressで2~8ページのサイト

まぁ、WordPressです。WPテーマをそのまま使ってアップしているので、ファイル名やXMLサイトマップのプラグインも一定のものです。たまにMT(Movable Type)もありますが、両方のCMSを活用している業者(?)もあれば、どちらか片方に決めている業者(?)もありそうです。ただ、発リンクのためだけの記事ですので、「月間アーカイブ」や「記事アーカイブ」での内部リンク以外はほとんどなく、記事ページがサイト内で離れ小島となっています。サイトとしてはなかなかあり得ない構造ですよね。

ワードサラダな文章(TD&本文)

サイト名も訳が分からなければ、Titleタグもおかしいですし、meta descriptionも変です。もちろん本文もおかしすぎます。「OLの働き方」というTitleタグで「毒キノコを食べたらお腹壊すよなぁ」というmeta description、そして本文では「保険の選び方について―」が書いてあるという…ワードサラダ(単語がサラダのようにバンバン投げ込まれているだけで文章の意味が破綻している)状態です。

有料リンク発注サイトへの発リンクは2本

なぜか、2本綺麗に発リンクされています。理由は分かりません。おそらく、記事がブログ構造のように設置されているので、該当記事ページURLの他に、アーカイブやトップページでの記事紹介URLからも発リンクされているだけだと思われます。しかしもしかしたらこの2本という設計が効果的だという判断があるのかもしれません。

最適化され過ぎたアンカーテキストで発リンク

やはり最適化され過ぎたアンカーテキスト(つまり施策キーワードそのままでリンクされている)でのリンクは効果的なのでしょう。「キャッシング」とか「FX」とか「看護師の求人 東京」とかで設定されているケースが目立ちます。

一定の期間で剥がしたり差し替える(410や404も活用)

以上のやり方…こんなやり方でランキングが上昇するのか…上昇するんです(笑)。本当に順位が上がるんです。なぜなら以下のやり方をしているからです。

① 上記のような不自然な外部リンクを大量に行う。
② Googleのアルゴリズムが検知して、評価され、順位寄与する。
③ 改めてGoogleのアルゴリズム(ペンギンアップデート等)が検知しようとする。
④ 捕捉される前にリンクを剥がしたりページを削除したりする。

つまり、不自然な外部リンクによる効果寄与だけさせたら、手動対応(ペナルティ)を喰らう前に剥がしてしまうんです。しかも410のHTTPステータス(Gone:消滅)を使うことでGoogleの検知を早めたり、単純にリンクを差し換えたり、巧妙なテクニックを活用しています。恐らく検知までにどれくらいの期間が必要で、剥がすまでにどのくらいの期間が適当か、等もしっかりと体系立てて運用していると思われます。
そして、リンクが剥がれることで検索順位が下がらないタイミングで、また別の外部リンクを行います。この作業を山なりに繰り返し行うことで、不自然な外部リンク効果を担保し続けるという仕組みです。

ふわふわ

有料リンクの傾向

以上が私の感じた不自然な有料リンクの傾向です。残念ながら、これが非常に効果的です。実際検索順位は上昇しています。当然この施策をやめれば、すぐにいっぺんにリンクが剥がされ、他の競合サイトに貼ったりもされるので、検索順位は下落していきます。

ここにきて外部リンクによる影響が強いのか、こういった施策が顕著に見られます。私が感じるに、恐らく1つの業者だけでなく、こういった手法を行っている業者は複数あるものと見られます。ある会社が始めたこの手法を(誰かが見破ったか、転職者が漏らしたか分かりませんが)真似する業者が増えてきたのでしょうね。

もし私の紹介通りの手法と評価方法が実在しているのであれば、Googleは外部リンク効果とペンギンアップデートが検知するタイミングを同時にする必要があるでしょう。また被リンク年齢や規則性を検知するアルゴリズムの開発も必要になりそうです。

Googleにとって、ブラックハットSEOとは本当にイタチごっこが続きますが、フィードバックを送るほどの確証が得られるまで、私も私なりに調査してみたいと思います。


関連記事

安全な検索体験を守るGoogle

Googleによるスパム対策の話や違法コンテンツに関する話が連日続いていましたが、同様に米国現地時間4月29日のThe Keywordにて、Googleが検索結果に対してどのような安全策を講じているのか、措置を行っているのか、改めて案内していますので和訳してご紹介します。ずっと検索やSEOに接してい ...(続きを読む)

違法コンテンツに対するGoogleの措置

SEOに取り組んでいるあまり、まるでGoogleを神様や法の裁定人かのように思いがちですが、GoogleはあくまでもWebサイトを検索ユーザーに紹介するだけのプラットフォームです。ですので、第3者として提供しているに過ぎません。しかしながら、ここまで世界的規模で利用されていたり、情報提供の正確さによ ...(続きを読む)

2020年のスパム対Google

毎年恒例となりましたGoogleによる前年のスパム対策振り返り。今年もGoogleはSearch Central Blogで2020年を振り返って発表していますので和訳してご紹介したいと思います。 Googleからの発表内容 米国現地時間4月29日にGoogleが発表した内容です。若干長文ですが、ご ...(続きを読む)

パラメータ付URLについて

SEOを考えた時、パラメータ付URLが存在しているものについて懸念する人が多いです。懸念する理由を聞くと「パラメータ付URLは良くないと聞いたから」「パラメータ付URLは何となく良くなさそう」等という曖昧な返答が多い気がします。そもそもパラメータ付URLの良し悪しはケースバイケースなので、Googl ...(続きを読む)

コメントを書く

コメントは承認から反映までしばらく時間がかかる場合がございます。メールアドレスが公開されることはございません。