robots.txtとは?書き方と設定方法【WordPress完全ガイド】

robots.txt設定ガイド【WordPress】 ■ SEO・検索対策

robots.txtは、検索エンジンのクローラーに対して「どのページをクロールして良いか・ダメか」を指示する重要なファイルです。
正しく設定することで、不要なページへのクロールを防ぎ、重要なページに評価を集中させることができます。
しかし、設定を間違えるとサイト全体が検索されなくなるリスクもあるため、慎重に扱う必要があります。

この記事では、初心者でも分かるように、robots.txtの基本から書き方、WordPressでの設定方法までプロ目線で解説します。


結論

robots.txtは「クローラーの動きを制御するための設定ファイル」です。基本ルールは以下です。

・見せたくないページ → クロール禁止
・重要なページ → クロール許可

ただし、robots.txtは「インデックス制御ではない」ため、noindexとの違いを理解することが重要です。


robots.txtとは?

robots.txtとは、検索エンジンのクローラー(Googlebotなど)に対してアクセス制御を行うためのファイルです。
サイトのルートディレクトリに設置され、以下のように記述します。

https://example.com/robots.txt

robots.txtの役割

robots.txtには以下の役割があります。

・不要ページのクロールを防ぐ
・サーバー負荷の軽減
・クロールの最適化

重要なページにクロールを集中させることで、SEO効果を高めることができます。


robots.txtの基本構文

基本的な書き方は以下です。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

User-agent:対象クローラー
Disallow:クロール禁止
Allow:クロール許可


WordPressの推奨設定

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap: https://example.com/sitemap.xml

ポイント

・管理画面はクロール不要
・サイトマップは必ず記載


robots.txtで禁止すべきページ

管理画面検索結果ページパラメータURL
/wp-admin//?s=/?utm=

robots.txtで禁止してはいけないもの

CSS・JS重要ページ
/wp-content/
正しくレンダリングされなくなる
記事・LP・トップページ

noindexとの違い

項目robots.txtnoindex
 役割 クロール制御 インデックス制御
 SEO 間接影響 直接影響

canonicalとの違い

robots.txt → クロール制御
canonical → URL統一


よくあるミス

サイト全体をブロック

Disallow: /

完全NG(インデックス消える)

noindexの代わりに使う

robots.txtでは検索結果から消せない

設定忘れ

不要ページがクロールされ続ける


WordPressでの設定方法

直接設置(FTP)

public_htmlにrobots.txtをアップロード

プラグイン(AIOSEO)

robots.txtエディタで編集可能


SEOでの正しい使い方

robots.txtは「クロール最適化のための戦略ツール」です。

クロール集中

重要ページにクローラーを誘導

無駄排除

低品質ページのクロールを防ぐ

サイト設計

内部SEOの最適化


最後に

robots.txtは、クローラーの動きを制御する重要なSEO設定です。
正しく使うことで、クロール効率を高め、SEO評価を最大化することができます。
ただし、設定ミスの影響も大きいため、基本ルールをしっかり理解して運用することが重要です。


よくある質問(FAQ)

Q
robots.txtで検索結果から消せますか?
A

消せません(noindexが必要です)

Q
設定しないとどうなる?
A

不要ページもクロールされます

Q
初心者でも必要?
A

基本設定は必須です

タイトルとURLをコピーしました