google クロールの仕組み
google webmasterを使用してホームページを作成している方で、
googleのクロールの仕組みがわかる方いましたら、教えてください。
1.google webmasterでの「Fetch as Google」は、設定したページを使うしてもらうためのものですか。
2.robots.txtはクロールしてもらいたいファイルの制御のために作成し、
sitemap.xmlはクロールした中でインデックスしてもらいたいファイルの一覧を作っておくファイルということでよいでしょうか。
3.sitemap.xmlでhtmlファイルだけ設定しているのですが、みなさんはどんなファイルを設定しておりますか。
投稿日時 - 2013-12-10 19:09:45
> 1.google webmasterでの「Fetch as Google」は、設定したページを使うしてもらうためのものですか。
設定したページを使ってもらうというよりは、googlebotにそのURLのページを強制的にクロールしてもらための機能です。
新しく作成したり、更新したページをいち早くインデックスさせたいときに利用してください。
> 2.robots.txtはクロールしてもらいたいファイルの制御のために作成し、
> sitemap.xmlはクロールした中でインデックスしてもらいたいファイルの一覧を作っておくファイルということでよいでしょうか。
robots.txtはクローラーを制御するという考えで間違いは無いです。
ただsitemap.xmlはインデックスしてもらいたいファイルと言うよりは、サイトの構造を正しくクローラーに知らせるというのが主な機能です。インデックスするかどうかは、クローラーが回った後に検索エンジン側が決定します。
> 3.sitemap.xmlでhtmlファイルだけ設定しているのですが、みなさんはどんなファイルを設定しておりますか。
基本的にはhtmlファイルが正しく記述されていれば問題ありません。
動画ファイルや画像ファイルがサイトのメインコンテンツなら、それを記述するのもいいとは思います。
投稿日時 - 2013-12-17 14:51:21
このQ&Aは役に立ちましたか?
12人が「このQ&Aが役に立った」と投票しています
回答(1)