Claude Codeの記事執筆フロー|58本公開でわかった5ステップと落とし穴
1ヶ月で58本のブログ記事を公開した。全部Claude Codeで書いた。
「AIが書いた記事なんて質が低いんじゃ?」と思うかもしれないけど、実際にはGoogle検索に表示される記事も出てきている。このページ自体がその証拠だ。
ただし、Claude Codeに「記事書いて」と丸投げしてもまともな記事にはならない。自分が1ヶ月かけて試行錯誤した結果、「これなら回る」と確信した5ステップのフローがある。
5ステップの全体像
- ブリーフ作成(企画) — 人間が5分
- 初稿生成(執筆) — AIが10分
- バリデーション(品質チェック) — AIが1分
- 公開(デプロイ) — 自動で30秒
- 改善(更新) — 人間の判断 + AIが実行
合計すると、1記事あたり15〜20分。ただしブリーフの質で最終的な記事の質が決まるので、ここだけは手を抜けない。
Step 1: ブリーフ作成(人間の仕事)
記事のテーマと方向性を決める。自分の場合、以下の4点を整理してからClaude Codeに渡している。
- 読者は誰か(例: LP制作を検討中の個人事業主)
- 読んだ後に何をしてほしいか(例: Coconalaで相談する)
- どんな検索キーワードで来る人向けか(例: 「LP制作 費用」)
- 記事末のCTAは何にするか(Coconala / LINE / なし)
テンプレートファイルを用意してあるが、正直Claude Codeへの指示文にこの4点を書くだけで十分。ファイルに保存する必要はない。
ここで一番大事なのは「自分だから書ける視点」を入れること。58本書いてわかったが、AIっぽい記事とそうでない記事の差は、ブリーフに自分の経験や意見が入っているかどうかで決まる。プロンプト側の工夫でさらに精度を上げたい場合はClaude Codeのプロンプト設計術で具体的なコツをまとめている。
Step 2: 初稿生成(AIが10分)
Claude Codeがテンプレートをベースに記事を生成する。フロントマターと本文を一気に書く。
ここでのポイントは3つ。
まず、サイト内の関連ページへの内部リンクを含めること。記事を書くたびにサイト全体のつながりが強化されるので、SEO的にも効く。54記事で400本以上の内部リンクが自然に生成された。
次に、relatedSlugsに関連記事を設定すること。記事末に関連記事が自動表示されるので、読者の回遊率が上がる。
最後に、published: falseで作成すること。ビルドチェック後に公開フラグをtrueにする。frontmatterの項目名・必須フィールドは content/blog/README.md に集約してあり、Claude Codeはそこを読んで書く。
なお、descriptionは120〜140字で「記事を読むメリット」が一文で伝わるようにしている。ここが弱いと検索結果でクリックされない。
Step 3: バリデーション(AIが自動修正)
npx tsx scripts/validate-blog.ts
npm run build
バリデーションスクリプトが検出する問題(タイトル長すぎ、必須フィールド不足、カテゴリ不正、プレースホルダ残り)はClaude Codeが自分で直す。人間の確認は不要。
58記事で一度もバリデーションエラーが本番に出たことはない。ここは完全に自動化できている。
Step 4: 公開(自動デプロイ)
published: trueに変更してコミット。ビルドが通ればVercelが自動デプロイする。PRを作成してマージする流れも含めて、Claude Codeが全部やる。
自分はTelegramで「PR作成しました」の通知を受け取るだけ。
Step 5: 改善(データを見て判断)
公開後の改善が一番重要なステップだと3週間やって実感した。
Google Search Consoleのデータを見て、表示回数があるのにクリックされていない記事はタイトルとメタディスクリプションを改善する。掲載順位が11〜20位の記事は本文を強化してtop 10入りを狙う。
この改善サイクルもClaude Codeに任せている。analytics-summary.mdにSCデータを自動集約し、リライト候補を特定し、改善を実行する。人間は「どの記事を優先するか」の判断だけ。運用全体の仕組みはAIでWebサイト運用を完全自動化した方法で全体像を公開している。
58本書いて見えた現実
量産で得たもの
1記事10分のペースで書けるようになった結果、1ヶ月で58本を公開できた。キーワードの網羅的なカバーが可能になり、AI活用・業務自動化・Web制作・副業・Claude Code実践の5カテゴリで検索流入の受け皿ができた。
内部リンクも自然に増えて、58記事全てが相互にリンクされている。Googlebotがサイト全体をクロールできる状態を早期に作れたのは、量産のおかげだ。
量産の落とし穴
一方で、58本中Googleにインデックス登録されたのは現時点で3割台。半数は依然「Discovered - currently not indexed」や「URL unknown」の状態から抜けていない。量を出すだけではGoogleは拾ってくれない、というのが正直な実感だ。
原因はいくつかあった。ドメインの正規URLがwww付きなのにコード側がwwwなしだったこと、英語版ページとの重複コンテンツ、内部リンク不足の記事があったこと。これらは後から修正したが、最初から気をつけていれば無駄な2週間を失わずに済んだ。
さらに厄介だったのは、Googleの再クロール頻度が13〜21日間隔と遅いこと。Indexing APIの URL_UPDATED を送信しても、既存ページの再クロールは思ったように発火しない。リライト効果の確認に最短でも2〜3週間かかるので、仮説→検証のサイクルが長期戦になる。
もうひとつの落とし穴は「AIっぽい記事」の量産。最初の20本くらいは体験談や意見をほとんど入れずに書いてしまった。後からリライトして「自分の声」を入れる作業が発生している。ブリーフの段階で体験談を含める癖をつけるべきだった。
量産より改善
58本書いた今、自分の中で「新記事を書くより既存記事を改善するほうがROIが高い」という結論に至っている。実際、Search Consoleで表示回数があるのにCTRが0%の記事をリライトしたら、タイトルとメタディスクリプションの改善だけで検索結果での見え方が変わった。インデックス済みかつ順位11〜20位の記事をリライトするのが、1時間あたりの期待値が一番高い作業だ。
週2本の新記事に抑えて、残りの時間はリライトとSEO改善に充てる。これが3週間の試行錯誤を経た現時点のベストな運用リズムだと思っている。
まとめ
Claude Codeでの記事執筆は「人間が方向を決め、AIが実行する」分業。人間の仕事は、ブリーフ作成と優先順位の判断。それ以外はClaude Codeが回せる。
ただし「何でもAIに任せればいい」わけではない。ブリーフに自分の経験を入れる、データを見て改善する、量より質を選ぶ判断をする。この3つは人間にしかできない仕事だと、54本書いて実感した。
このフローをさらに発展させた自動公開の仕組みはClaude Codeで1日1記事自動公開する仕組みを作ったで紹介している。2週間の運用データはClaude Codeで記事を書き続けて2週間のSEOレポートにまとめた。
アイデア出しから下書き完成まで30分で仕上げる具体的な手順はClaude Codeで30分で下書きを仕上げるワークフローで解説している。副業の実務での使い勝手はClaude Codeを3ヶ月使い続けた正直な評価を参照してほしい。Claude Codeをまだ触ったことがない方は、Claude Codeの始め方|導入手順と活用事例3選から始めるといい。Cursor・Copilotとの使い分けが気になる方はAIコーディングツール比較2026も参考になる。
記事執筆以外にも、GASによる業務自動化やメール対応の自動化など、AIを活かした効率化のパターンは多い。営業メール特化の自動化ならAIで営業メールを自動化したら返信率が3倍になった話で返信率改善の実例も紹介している。
このサイトのAI運営ログでは、54記事の執筆を含む全作業の実績をリアルタイムで公開している。