#4729

手探りが常識


少し報告が遅くなりましたが、
このブログは12月21日に63万アクセスを突破していたようです。ありがとうございます。
アクセス数については最近別のエントリーで書いたばかりですが、
それに関連してSEO対策についても
ここ最近特に特設サイトが思った通りの検索結果にならないということで
htaccessが悪いのか、PHPの構造が悪いのか、サイトマップが悪いのか、
そもそもSSL認証を持っていないからページランクが低いのか……
などといろいろと原因を探していたのですが、
どうやらrobots.txtにそもそもの原因があるらしいというところに行き着きました。

特設サイト (pik4.chr.mn) はこのブログの所管するサーバー内に置かれているため、
サブドメイン表記だと上記のようになりますが、実体としては (chr.mn/pik4) にあります。
なおかつ、Googleのウェブマスターツールにはサブドメイン表記で登録しています。
ここで問題になるのは、ドメイン直下のページは本家ブログ (chr.mn) として登録がされているため、
特設サイトの実体部分は基本的に本家ブログのコンテンツとしても認識されるわけです。
結果として特設サイトはクローラーからみて二つの同じようなコンテンツがあるように見え、
本当は検索エンジンに登録して欲しいサブドメイン表記の方が
重複と見なされて排除され、長らく検索結果に表示されていませんでした。
かといって本家ブログ側から見たページも、他の膨大なコンテンツに埋もれてしまうのか
検索上位にはなかなか上がってこないというのが実情でした。

このクロールをWebサイト管理者側である程度制御できるのがrobots.txtというファイルです。
いちおう特設サイト開設当初から、
本家ブログとして認識されないように設定をここに追記していたはずなのですが、
「Disallow: /pik4/」と書くべきところをずっと「Disallow: pik4/」と書いていたらしく
クロール禁止制御が働いていない状態でした。
Disallowとは指定する文字列にマッチする相対URLに対するクロール禁止を意味します。
今回の場合だと、(chr.mn/pik4/) にアクセスさせたくないわけですから、
そのうちドメインを除いた「/pik4/」を記述すれば良いということになります。
今まで間違っていた記述だと (chr.mnpik4) になってしまいますね。
ということでこれを修正して、今はまたしばらくは様子見という段階です。
これで都合良くサブドメインを独立したサイトとしてクロールしてくれれば良いのですが。

今回の件は記述ミスだけ見ればとっても初歩的な、Web管理者としてあるまじきミスですが
自戒も込めてあえてブログに残しておくことにしました。
ウェブマスターツールもコンテンツの重複など原因を知らせてくれるわけではないため、
実際の原因は簡潔でもそこに行き着くまでが難しいのがSEO対策の難しいところですね……。

ぶっちゃけ今までずっと自己満足だけでWeb制作をやってきたというのもあって
SEO絡みの知識は無いと言っても過言ではなく、
その辺はこれから少しずつ補強していかなきゃいけないんだろうなぁとは虚ろに思っています。
特設サイトは然り、このブログの検索エンジン対策も少しずつ考えていきたいところ。
……これだけ似た色のコンテンツを量産してしまうと
それだけでもうかなり不利のような気がしないでもないですけどね……。
古いページはクロールさせないとかといった小手先の対策で何とかなったりするんだろうか?

ともあれ64万アクセスに向かうこれからも、特設サイト共々よろしくお願いします。