Googleにインデックスされない10の原因とその対処法
Googleにインデックスされない10の原因
SEO対策の中にはGoogleへの「インデックス」対策があります。
インデックスとはGoogleのデータベースに登録されることです。
インデックスされないと検索順位も付きませんので、まずはGoogleにインデックスされることは大切です。
しかし中には、作成したページがGoogleにインデックスされないことがあります。
なぜインデックスされない現象が起こるのか?その原因と対処法について解説していきます。
1・ガイドライン違反でペナルティを受けている
Googleのウェブマスター向けの「品質に関するガイドライン」にある違反項目に抵触し、それが原因でペナルティを受けると、インデックスされません。
すでにインデックスされているページも削除されますので、検索結果にも表示されなくなります。
我われサイト運営者はペナルティだけは受けないよう気をつけなくてはいけません。
Googleの品質に関するガイドライン違反とは次のものを指します。
- コンテンツの自動生成
- リンク プログラムへの参加
- オリジナルのコンテンツがほとんどまたはまったく存在しないページの作成
- クローキング
- 不正なリダイレクト
- 隠しテキストや隠しリンク
- 誘導ページ
- コンテンツの無断複製
- 十分な付加価値のないアフィリエイト サイト
- ページへのコンテンツに関係のないキーワードの詰め込み
- フィッシングや、ウイルス、トロイの木馬、その他のマルウェアのインストールといった悪意のある動作を伴うページの作成
- リッチ スニペット マークアップの悪用
- Google への自動化されたクエリの送信
上記の項目を読めばわかりますが、普通にWebサイトを運営していればペナルティを受けることはありません。
ただ知識不足やあやしいSEO業者の施策で知らないうちにガイドライン違反を犯してしまう可能性もありますので、最低限の知識は持ち合わせておきたいところです。
2・robots.txtの設定でGooglewo拒否している
robots.txtのファイルの中に、クロールを拒否する「disallow」の記述がされると、グーグルはその指示の通りクロールしませんので、結果としてインデックスされなくなります。
良くある例では、サイト作成時にあえてクローラを拒否した場合で、設定をそのままにしているときに起こります。
DIsallow: の後にスラッシュ (/) のみを記述するとサイトの全ページをブロックします。
全ページのブロック
User-agent: *
Disallow: /
Disallow: の後に何も書かないと、全ページのアクセスを許可します。
またはDisallow自体を書かなくても(User-agentの記載のみ)同じ意味です。
全ページのアクセス許可
User-agent: *
Disallow:
ちなみに、User-agentの後に続く「*」は、すべてのクローラーを拒否するという意味です。
Googleのみを拒否したい場合は、「User-agent:Googlebot」と記述します。
もしrobots.txtファイルの中に「Disallow」が記述してある場合は、(/) を削除すれば全ページアクセスが許可されます。
3・meta robotsタグの記述で「noindex」を指定してる
meta robotsタグに「noindex」が記述してあれば、クローラーの巡回が拒否されインデックスされなくなります。
<meta name=”robots” content=”noindex”>
上記のような記述をしていると、「検索結果に表示しない」という命令になりますので、このタグを設置したWebページは検索結果に表示されません。
意図的にインデックスさせない場合を除き、「noindex」を削除してクローラーが巡回できる環境にしておきます
4・canonical(カノニカル)タグの記述が間違っている
canonical(カノニカル)タグは重複URLを解消するために使います。
たとえば同じような重複コンテンツがサイト内に2つある場合、Googleが検索結果に表示するとき、どちらを表示するべきか迷ってしまいます。
その結果、評価が分散してしまいます。
そこでcanonicalタグを使い、もっとも評価してもらいたいページを指定します。
しかし間違ったページを指定してしまえば、そのcanonicalタグを記述したページをGoogleはクロールしてインデックスしてしまいます。
そのため、本命の評価してほしいページをインデックスしてもらえないという状況が起こります。
よくある事例では、canonicalタグがあるページをコピーして複製したときに、タグも消さずにそのままアップロードしてしまうことにあります。
もしGoogleからインデックスされないときはcanonicalタグが記述されてないか調べてみましょう。
5・クローラが巡回しにくいサイト構造になっている
クローラーとは検索エンジンが情報収集するためのプログラムのことです。
Googleの場合、グーグルボットと呼ばれています。
サイトにクローラーが来て情報を収集し、その持ち帰った情報をデータベースにインデックスしていきます。
ですので、何はなくともWebサイトへクローラーに来てもらわなくてはいけません。
そのクローラーはWebサイト間のリンクや、サイト内部に張り巡らしたリンクによって巡回してきます。
したがってクローラーにWebサイトに来てもらい、そこからくまなく情報を持ち返ってもらうには、被リンクや内部リンクをある程度がないとダメなのです。
被リンクはそれ自体が検索順位にも影響しますが、実はクローラーに来てもらう対策でもあるのです。
被リンクが多いほどクローラーがやって来る経路が増えます。
内部リンクはWebサイト内の各ページの情報を、クローラに持ち帰ってもらうために張る役目もあります。
外部リンクはコントロールできませんが、内部リンクは自分でコントールできますので、クローラーが情報収集しやすい構造にしておきましょう。
具体的にはあまり深い構造にしないことです。
Webサイトの構造は3層までにし、シンプルな設計を心掛けます。
そして質の高い関連性のあるページを増やしていき、ページ同士を内部リンクさせていきます。
こうすることでWebサイトをクローラーが漏らさず巡回してくれるようになります。
6・ドメインが新規
先述した通り、クローラーは外部からのリンクをたどってあなたのWebサイトにやって来ます。
しかし新規ドメインの立ち上げたばかりのWebサイトは、外部からのリンクが張られていません。
そのためクローラーがWebサイトに来るまでに時間がかかる場合があります。
このような場合はGoogleが無料で提供しているサーチコンソールを使って、インデックスを促すことができます。
7・中古ドメインがペナルティを受けている
中古ドメインを使うメリットは、以前のWebサイトの評価を引き継げることです。
新規ドメインの評価は0ですが、高評価をもらっていたWebサイトのドメインなら、早期の検索順位の上昇が見込めます。
ただし中古ドメインには過去にペナルティを受けていたものも含まれます。
当然その評価は引き継がれますので、ペナルティを解除されていなければ、いくらページを公開してもインデックスされないのです。
中古ドメインでWebサイトを運営する場合には、サーチコンソールにペナルティのメッセージが届いてないか確認しましょう。
もしGoogleからメッセージが届いていたときは、その内容に従ってWebサイトを修正し、再審査リクエストを送って、ペナルティを解除してもらうようにします。
あるいは思い切って中古ドメインを放棄し、新規ドメインでサイトを立ち上げるのも方法です。
検索順位は相対的に決まるものなので、激戦区のキーワードであればドメインの運営歴が長いことで相対的評価が上になることもあるでしょうが、一般的なキーワードでそこまでしなくてはいけないのかは疑問です。
サテライトサイトに中古ドメインを使う場合でも、サイトの質が低ければインデックスされないのは同じです。
8・x-robots-tag
x-robots-tagは、PDFファイルなどのHTMLタグが記述できないファイルのクローラー制御に使います。
htaccess等にX-Robots-Tagでnoindexを記述して、Googleにインデックスされないように設定します。
htaccessにx-robots-tagが記述されてないか確認してみましょう。
9・サイトの500エラー
サイトの500エラーによりインデックスされないことがあります。
500エラーとはWebサーバー側に何かしらの問題が発生したときに示すエラーです。
その理由はさまざまですが(容量オーバー、ワードプレスのプラグインの不具合など)、サーバー側の問題により、クローラーが巡回できない状況が起こってしまいます。
500エラーが問題のなのは、その状態が長期間続くことです。
エラーが長く続けば、その間クローラーが来てもそのまま帰ってしまいますので、インデックスされることもなくなります。
それを避けるためには、Webサイトに異常が出てないか、定期的にサーチコンソールを使ってチェックしておく必要があります。
10・Webサイトの質が低い
Webサイトの質が低いとクローラーの巡回頻度が落ちてしまいます。
その結果インデックスされにくい状況を生んでしまいます。
サイトの質が低い場合、Googleのクロール頻度が落ちる可能性がことを明言しています。
サイトに変更頻度が低い情報がある場合や、サイトの品質があまり高くない場合は、サイトのクロール頻度が落ちる可能性があります。
サイトを率直に見て、またサイトに関係がないユーザーに偏りのない意見を聞いて、全体的にサイトのどこをどのように改善すればよいかを検討してください。
それに対し有益な情報がたくさんあるサイトは、クロール頻度が上がることも説明しています。
新しい情報を大量に追加した場合や、サイトに非常に有用な情報が掲載されている場合は、想定を上回ってクロールされてしまう可能性があります。
高品質ページが多くあるサイトはドメインパワーが上がるので、これも当然ともいえます。
低品質サイトの特徴としては
- 定期的に更新してない
- ページ内の文章量が少ない
- 文脈のよくわからない文章(ワードサラダ)
- コンテンツにコピーコンテンツが多い
といったことが挙げられます。
このようなユーザーにとって有益でないWebサイトは、そもそもインデックスされないか、されてもあとで削除されるということが起こります。
SEO対策の基本は、ユーザーの役に立つコンテンツを作成することです。
質の低いサイトにならないよう、しっかりコンテンツ対策に取組みまましょう。
新サーチコンソールでのインデックス登録をリクエストする方法
Googleへのインデックスを促す方法に、サーチコンソールから行う「Fetch as Google」がありました。
しかしサーチコンソールが新しくなり、Fetch as Googleの代わりに、「URL検査」ツールからインデックス登録をリクエストすることができるようになりました。
URL検査ツールでは、該当URLが「インデックスされているか/インデックスされていなか」調べることができます。
1・URL検索をクリックし、検索窓に調べたいページのURLを入力します。
2・登録されていなければ、「インデックス登録をリクエスト」をクリックします。
3・リクエストすると公開URLが登録可能かどうかをテストされます。
4・テストに合格するとインデックスのリクエストを受け付けてもらえます。
まとめ
この記事ではGoogleにインデックスされない原因とその対処方法について解説してきました。
技術的な面でインデックスされないのなら、これは改善すれば早期にインデックスされます。
しかし低品質なページを投入してインデックスされない場合は要注意です。
これはWebサイトに対する根本的な考え方を変えなくてはいけないです。
基本的にある程度以上のコンテンツを投入していれば、インデックスされないことは起こりません。
Googleからインデックスされないときは参考にしてみてください。
下記に一つでも思い当たるなら集客屋にお任せください。
・ランディングページのコンバージョン率が低い。
・オンラインで商品・サービスを販売したい。
・オンライン広告をはじめたい。
・販売不振を解消したい。
・オンラインで集客できる仕組みを作りたい。
高いパフォーマンスを発揮するランディングページを提供して、「売れない」悩みを解決いたします。
この記事へのコメントはありません。