SEO 最怕的不是慢,而是没节奏。很多站点的真实情况是:数据一直在变化,但因为复盘成本太高,大家就只能在流量明显掉的时候才回头看。等你发现掉了,往往已经错过了最容易修复的窗口。Search Console API 自动周报的意义,就是把复盘这件事变成固定动作:每周自动产出一份“该看什么、该做什么”的清单。

你不需要把它想得很复杂。自动周报不是要做一个庞大的 BI 系统,而是把你每周手动做的几件事(导出、筛选、对比、标记)交给脚本去做,让你把时间花在判断与行动上。你越早把这个节奏建立起来,越不容易被“感觉”带着跑。

Search Console API 能拿到什么(以及拿不到什么)

最常用的是 Search Analytics 数据:查询词、页面、国家、设备、曝光、点击、CTR、平均排名等。这些数据足以支撑绝大部分内容与排名复盘。你要注意的是:它不是实时数据,会有延迟;另外它不会告诉你站内行为(那是分析工具的工作)。它的价值在于:搜索结果里发生了什么变化。

一份能指导动作的周报,至少包含 4 张表

  1. 机会词表:曝光高、CTR 低的查询/页面(优先改标题与摘要)。
  2. 排名波动表:本周 vs 上周,排名/点击变化最大的查询与页面(优先排查是否被内耗/是否被替代)。
  3. 新增长表:新出现的查询、新进入前 10 的页面(优先加内链、加信任证据,放大胜利)。
  4. 异常页面表:点击暴跌的页面、曝光暴跌的目录(优先查技术问题与索引问题)。

真正有用的周报并不需要 20 个图表,反而需要几张能直接派发任务的表。

实现方式:最简单的两条路

  • Apps Script:适合把结果写进表格并用于协作;实现快、维护也相对简单。
  • Python:适合输出 CSV/JSON 再接自己的报表或邮件系统;可扩展性更强。

无论哪条路,你都要做三件事:拿到授权(OAuth)、调用 Search Analytics 接口拉数据、把数据按周报逻辑做对比并输出。

最小实现思路(伪代码):先跑通,再优化

1) 拉取 last_7_days 与 prev_7_days 的 query/page 指标
2) 以 query+page 或 page 为键做 join
3) 计算 delta:clicks_diff / ctr_diff / position_diff
4) 过滤出三类清单:机会词、波动、增长
5) 输出 CSV 或写入表格

验收清单:你怎么知道周报真的可用?

  • 每周固定时间能自动生成,不依赖人工导出。
  • 周报里每张表都有明确动作:改标题、加内链、排查技术、更新内容。
  • 你能把周报结果和内容更新计划连起来(否则周报只是看完就结束)。

如果你还在用 Search Console Insights 手动复盘,可以先把思路跑顺:Search Console Insights 新版怎么用。API 是把手动复盘变成自动复盘的下一步。