アフィリエイト × SEO改善を AI と回す:Search Console API でCTRを上げる実践対話記録

New Challenge

はじめに

コウジ:基本からアフィリエイト手法を考え直したい。キーワード選定をして月に500回程度検索されるキーワードをAIに任せて、そこから次にやるべきことを整理したい。
AI:いいですね。その後にやるべきステップは、SEO戦略、コンテンツ構成、初期流入設計、クリック率(CTR)改善。そして、Google Search Console API を使って CTR や順位のデータを取って、自動で改善サイクルを回すのが強力です。

以下では、その対話を振り返りながら、実務への展開と 私(コウジ)が取るべきアクションプランを章ごとに分けて整理しました。


1. キーワード戦略とコンテンツ設計:基本から再整理する

コウジ:キーワードを AI に出してもらっても、それだけでは不十分。次にやるべきことを明確にしたい。
AI:その通りです。以下の流れが効果的です:

  1. キーワードの精査
      - 生成されたキーワードを「検索意図(情報型・購買型・ナビ型)」で分類
      - 競合サイトを調べて、上位結果の構成を分析
      - 共起語(関連用語)を抽出して記事に盛り込む

  2. コンテンツ設計
      - 検索意図に合わせた見出し(H1, H2, H3)を設計
      - 読者の疑問を解決するストーリー構成(問題提起 → 解決策 → 商品紹介 → CTA)
      - E-E-A-T(経験・専門性・権威性・信頼性)を担保する情報の追加

  3. SEO 最適化とライティング
      - メインキーワード+関連キーワードを自然に文章に含める
      - タイトル、メタディスクリプション、OG タグを整える
      - 読みやすさ重視:短文、箇条書き、画像を使う

  4. 成約導線(CTA)設計
      - CTA 文言を具体的に:例)「資料を無料でダウンロード」「今すぐ比較表を見る」
      - CTA を記事の流れ(解決策提示後・レビュー後・記事末尾)に自然に配置
      - デザインも重要:ボタンの色、サイズ、アイコンで目立たせる
      - 信頼性を補強:実績や保証、レビューを CTA 付近に置く

  5. インデックス促進
      - Google Search Console に URL を送信
      - サイトマップ更新
      - SNS や外部サイトで初期流入を作る

  6. 効果測定と改善
      - CTR(クリック率)、CVR(成約率)、滞在時間を定量的にモニタリング
      - Google Search Console と連携して、AI を使って改善案を出す
      - 効果を見て、タイトル・見出し・CTA を修正 → 再測定 → サイクル継続


2. Search Console API を使った改善サイクルの具体化

コウジ:私は人気記事を中心に改定していきたい。特定 URL に対して Search Console API を使って CTR や順位を定期取得し、改善ポイントをデータで出したい。
AI:素晴らしい方針です。そのために、どんな指標を測ればよいか、どのようにサイクルを回すかを定義しましょう。

2.1 取得すべき主要指標

  • クエリ別指標

    • クリック数

    • 表示回数(Impressions)

    • CTR(クリック率)

    • 平均掲載順位

  • ページ別指標(特定 URL に対して)

    • 上記指標を URL ごとに取得

    • 端末別(PC / モバイル)や国別のデータも取得可能

  • 日付別の変化

    • 日次・週次・月次でトレンドを追う

    • リライト前後や改善施策後の差を計測

2.2 改善サイクルの流れ(自動化を前提)

  1. 初期計測
      - 人気記事 URL をリスト化
      - API で CTR・順位・クリック数を取得

  2. 改善施策の実施
      - タイトル・見出し・CTA を修正
      - 内部リンクを強化・共起語を追加

  3. 再計測
      - 同じ指標を取得
      - 差分を出して改善効果を確認

  4. レポート化・アラート
      - Python スクリプトで差分を出し、スプレッドシート(Excel 形式)に記録
      - CTR や順位が悪化・改善が小さい URL に対してアラート(例:Slack 送信)

  5. AI による提案
      - CTR が低い URL に対して AI にタイトル改善案を生成させる
      - 順位が伸び悩む記事には、AI で追加すべき見出しや共起語案を出させる

  6. サイクル継続
      - 定期(例:毎日・毎週)で再計測
      - データが溜まることで傾向分析ができ、次の改善がより精密になる


3. Google Search Console API の詳細設定と運用技術

コウジ:Search Console API を使うには具体的にどうやればいい?認証の流れとか詳しく知りたい。あと、Rails をよく使ってるが、Python(Django)を使った方がこの改善サイクルには向いてるか?
AI:はい、それぞれ整理します。

3.1 GCP で API を有効化し、認証を設定する手順

  1. Google Cloud プロジェクトを作成
      - GCP コンソールにアクセス → 新しいプロジェクトを作成 QuarkA公式サポートサイト+2Qiita+2

  2. Search Console API を有効化
      - 「API とサービス」→「ライブラリ」で “Search Console API” を探し、有効化 くれとむのブログ+2inasala.com+2

  3. サービスアカウントを作成
      - 「IAM と管理」→「サービス アカウント」で新規作成、JSON キーを生成 Qiita+1

  4. Search Console 側で権限を与える
      - Google Search Console に登録済みのサイトで、「設定」→「ユーザーと権限」→ サービスアカウントのメールを追加 inasala.com+1

  5. Python 環境で API を叩く
      - google-api-python-clientgoogle-auth などを使う Qiita

  6. データ取得リクエストを送る
      - searchanalytics.query を使って、クエリ/ページ別の CTR・クリック数・表示回数・位置情報を取得 inasala.com+1

3.2 運用環境として:Rails vs Django(Python)

観点Rails(Ruby)Python(Django)/スクリプト併用
既存資産既に Rails PJ が多いため、既存の Web サイトや運用は強み。Python を使った分析スクリプト(Search Console API)と自然に統合可能。
データ処理・分析Ruby でも可能だが、Pandas や AI 連携のライブラリは Python が圧倒的に豊富。Python で CTR や順位の差分分析 → AI への入力 → 改善案生成 がスムーズ。
自動化ジョブSidekiq + Rails で定期ジョブを組むのが得意。Python スクリプトを Cron/スケジューラで定期実行し、Excel出力や通知まで一元化できる。
結論既存サイトの運用を Rails に任せつつ、分析・改善基盤は Python で分離するのが最も効率的。

4. 通知と改善提案の仕組み:Slack × AI を使った実践

コウジ:CTR が低い URL や順位が落ちたページをいち早くキャッチして改善したい。Slack 通知とか AI タイトル案の自動生成は現実的?
AI:はい、かなり現実的です。

4.1 Slack 通知の仕組み

  • Webhook を使って通知送信
      - Python スクリプトで Slack の Incoming Webhook にポスト → 通知を送る方式が一般的

  • 通知するタイミング
      - CTR が閾値以下(例:1%未満) → アラート
      - 順位が急落した URL を検出 → アラート

  • 実例・注意点
      - Webhook はシンプルに通知が送れる仕組みで、Slack チャネルを指定してメッセージが出せる Reddit
      - ただし Webhook の遅延や制限を意識する必要がある (特に高頻度通知時) Reddit+1

4.2 AI による改善提案(タイトル・見出し)

  • Excel(またはスプレッドシート)に出力した Search Console データを AI に渡し、プロンプトで改善案を生成

  • 例のプロンプト:

    「この表には URL と現在のタイトル、CTR があるので、CTR が低い URL についてクリックされそうなタイトル案を 3 つ出してください。検索意図は維持してください」

  • タイトル案・見出し案を受け取ったら、実際に記事をリライト → 再測定 → 効果を確認 → また改善


5. 実運用へのステッププラン(コウジがこれからやるべき順)

  1. Search Console API の基盤構築
      - GCP でプロジェクト作成・API 有効化 → サービスアカウント作成 → Search Console に権限付与します。具体的にGoogle Search Console APIの使い方を実務レベルで詳しく解説します。
    ✅ Google Search Console APIの導入手順(図解イメージ+関連URL) 1. Google Cloud ConsoleでAPIを有効化 アクセスURL:Google Cloud Console 手順: 新しいプロジェクトを作成 「プロジェクト選択」→「新しいプロジェクト」→名前を入力→作成。 APIライブラリでSearch Console APIを有効化 左メニュー「APIとサービス」→「ライブラリ」→「Search Console API」を検索→「有効にする」。 認証情報を作成 「認証情報」→「認証情報を作成」→「OAuth 2.0 クライアントID」。 アプリケーションタイプは「デスクトップアプリ」または「ウェブアプリ」を選択。 クライアントIDとシークレットを取得。 図解イメージ(参考) プロジェクト作成画面 APIライブラリ検索画面 認証情報作成画面

    GCP(Google Cloud Platform)側で発生しうる費用

    ▼ ① プロジェクト作成 → 無料

    料金は発生しない。

    ▼ ② Search Console API 有効化 → 無料

    API自体に課金はない。

    ▼ ③ 認証(OAuth / サービスアカウント) → 無料

    認証を作るだけで課金されることはない。


    🔍 “課金されてしまう可能性がある場所”

    ここだけ注意しておけば、無料のまま運用できます。

    サービス発生条件無料で抑える方法
    Cloud Functions関数を動かすと課金オフにする or 使わない
    Cloud Runコンテナを動かすと課金使わない
    BigQueryデータ保存・クエリで課金使わない
    Cloud Storageアップロード/保存で課金使わない

    💡 単に Search Console API を使うだけなら、これらは不要です。


    🆓  無料で安全に使える構成(推奨)

    ▼ ① ローカルの Python / Node.js / PHP → 完全無料

    • Search Console API:無料

    • 認証:無料

    • GCP の追加サービス利用なし → 請求 0 円

    これは最も安全。


    ▼ ② WordPress(PHP)でAPI通信 → 完全無料

    • 同上、無料

    • GCP追加サービス利用なし


    ▼ ③ Google Apps Script(GAS)だけで呼び出す → 完全無料

    Apps Script の Gmail や Drive 等の割り当てと同じ扱い
    Search Console API の呼び出しは無料


    🧭  確実に無料にするための “設定チェックリスト”

    Google Cloud の左メニュー

    ✔ 「API とサービス → ダッシュボード」

    有効化されている API が

    • Search Console API

    • OAuth / サービスアカウント API
      だけなら問題なし。

    ✔ 「Cloud Run」→ OFF

    ✔ 「Cloud Functions」→ OFF

    ✔ 「BigQuery」→ 未使用のまま

    ✔ 「Cloud Storage」→ バケット無し

    ✔ 「Compute Engine」→ インスタンス無し

    これで課金される要素は完全にゼロ。


    🎯 最終結論:無料枠の範囲で実現できる?

    🟩 YES。Search Console API の利用は無料。
    🟩 GCP の課金が発生する部分を使わなければ完全無料で運用できる。

    つまり、

    ローカル / WordPress / GAS から Search Console API にアクセスする構成は “0 円” でずっと使える。

  2. Python スクリプト開発
      - URL リストを読み込んで Search Console API を取得 → pandas で DataFrame → Excel (または CSV) 出力

  3. レポート自動化・通知
      - スクリプトを定期実行(cron 等)
      - Slack Webhook 通知を追加し、CTR や順位の異常をアラート

  4. AI を使った改善案生成ワークフロー
      - Excel を AI に渡す → タイトル / 見出し改善案を受け取る
      - 改善案を実際の記事に反映

  5. 改善サイクル運用
      - 再計測 → 差分分析 → 必要な修正 → 再インデックス/再公開 → 継続

  6. 分析の高度化
      - 蓄積データから傾向分析(例:CTR が伸びやすいタイトルのパターン)
      - 将来的には予測モデル (CTR が上がる可能性のある記事) の導入検討


おわりに

この対話とその展開は、AI とコウジ(運営者)が協働して SEO を改善し続けるリアルな構造を示しています。単に記事を書くのではなく、データを定量的に観測して、AI から改善案を出し、それを実際に記事に反映 → 再び評価を行う。このような改善サイクルを回すことで、アフィリエイト収益も SEO 効果も飛躍的に高めることが可能です。

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

雑記の纏め記事に戻る

タイトルとURLをコピーしました