Claude Codeで記事を書き続けて2週間——SEOデータから見えてきたこと

制作裏側📖 5分で読める
ClaudeCodeSEOブログデータ分析

2週間で40本の記事を書いた。1日1〜2本ペース。書いたのはほぼClaude Codeで、人間の私がやったのはたまにレビューして承認するだけだ。

「AIが書いた記事はGoogleに評価されるのか?」という問いに、そろそろデータで答えられるようになってきた。

現在の状況(2026-04-03時点)

Search ConsoleとGA4のデータをまとめるとこうなる。

  • サイトマップ上のURL: 63件
  • インデックス済み: 14件(22%)
  • Search Consoleに表示されているクエリ: 約20件
  • 主要クリック源: baseball.show-smartwork.dev(別サブドメイン)

正直に言うと、40本書いてインデックス率22%は低い。「記事を増やせばSEOは自動的に良くなる」という仮説は、少なくとも短期では成立しなかった。

何がインデックスを妨げているか

Googleが教えてくれる除外理由のほとんどは「Discovered - currently not indexed」だ。つまり「見つけたけど、まだ重要と判断していない」。

原因としていくつか仮説を立てた。

被リンクゼロ問題:新しいサイトで外部からのリンクがない。Googleにとって「誰にも参照されていないページ」は優先度が低い。

内部リンク不足:インデックスされているページからのリンクが少なければ、クロールバジェットが回ってこない。4月1日にホームページのブログ表示数を3→6に増やし、インデックス済みページから未インデックスページへの内部リンクを12件追加した。効果は1〜2週間後に出るはずだ。

英語版の重複コンテンツ:en/ 配下に英語版を持っているが、当初は noindex 設定がなかった。日本語版と英語版で評価が分散していた可能性がある。4月3日に全英語版ページへ noindex を設定済み。

唯一の例外:ai-writing-workflow

40本のうち、きちんと検索流入を取っている記事が1本ある。

Claude Codeで記事執筆フローを回す方法 — Search ConsoleでCTR 17.6%、掲載順位7.8位。

3月19日公開で、最も古い記事のひとつだ。内部リンクも多く、サイト内での位置づけが明確な記事でもある。

この記事から学べることは「記事の古さ(ドメイン在籍期間)」と「内部での重要度の高さ」がインデックスに効くということだ。逆に言えば、最近書いた記事がインデックスされていないのは、ある程度仕方ない。

2週間でわかったSEOの現実

記事数を増やすことと、検索からアクセスが来ることは、別の話だ。

検索流入を得るには:

  1. Googleがそのページを「インデックスする価値がある」と判断すること
  2. 特定のクエリで上位に表示されること
  3. ユーザーがクリックすること

記事を量産するのは(2)(3)への投資で、(1)は時間と内部構造と外部評価が必要になる。「40本書いたのに流入ゼロ」という状況は、(1)がまだ通過できていないからだ。

じゃあ記事を書き続ける意味はあるか

ある、と判断している。

理由は2つ。

検索インデックスは遅れて評価される:現在、多くのページが「Discovered」状態にある。Googleが評価するタイミングは数週間後になる。今行動したことは、1〜2ヶ月後に数字として出てくる。

コンテンツの厚みは信頼性につながる:訪問者がサイトを見たとき、関連記事が40本ある状態と10本ある状態では印象が違う。実際、ai-log ページの平均滞在時間は213秒で、複数ページを回遊していることがわかる。

ただし「闇雲に増やす」から「質を上げつつ戦略的に増やす」へシフトする時期だと感じている。

次に打つ手

データを見た上での次のアクションはこうなる。

  • 内部リンクの充実(インデックス済みページから未インデックスページへの誘導を増やす)
  • Quick Win クエリの強化("claude code 執筆"が12.5位、"lp 制作 フリーランス"が17位——もう少しで1ページ目)
  • 記事の品質向上(薄い記事のリライト)

「記事を増やしながら、サイト構造も同時に強化する」が当面の戦略だ。

この試みの経緯は AI運営ログ で全て公開している。データを見ながら判断を変えてきた過程が残っている。