周二早上,你打开 Google Analytics。10 月 8 日那天的自然流量曲线像掉下了悬崖。你没改过内容,网站速度也挺快。你的代运营公司一直在给你发报告,说什么「算法波动」。但你的电话就是不响了。你每个月花 £4,000 做的 SEO,突然间打水漂了。
Google 在 2025 年 10 月向 40 多个国家推出了 AI 模式 来源 (https://www.superprompt.com)。搜索引擎不再是一个链接图书馆,而是变成了由 Gemini 2.5 驱动的「答案引擎」。它直接在页面上合成答案。如果你还在玩那套传统的关键词游戏,你已经出局了。你需要一套新的生存机制。
「零引用」导致的可见度崩盘
所谓「零引用可见度崩盘」,是指当你的业务只存在于你自己的网站上时,AI 搜索引擎会把你当成一个「未验证实体」,从而导致搜索流量骤减。
在 2025 年 10 月之前,你可以写一篇 2,000 字的商业管道维修博客,塞满关键词,然后拿到排名。Google 会读取你的网站并相信你的话。你完全控制了自己域名上的叙事。
现在,Gemini 2.5 会读取用户的查询,理解意图,并从多个来源合成答案。它不再孤立地信任你的域名。它会在全网寻找「共识」。
如果你的管道公司自称是行业第一,但在当地论坛、供应商目录或行业新闻网站上压根没人提你,AI 模型就会把你踢出去。你缺乏「多源权威性」。算法会把你自卖自夸的声明视为低置信度数据。
这种崩盘对根基深厚的中小企业打击最大。你可能经营了 15 年,但你的数字足迹全是自说自话。你付钱给代运营公司写没人看的博客,仅仅是为了喂给算法吃。
你的营销经理在恐慌。你的销售在抱怨线索质量。财务总监在质疑营销预算。他们都觉得是网站坏了。其实不是。网站没问题,问题是网站周围的数字世界是一片空白。
AI 模式会忽略没有外部验证的自我声明。这事儿挺乱的,没人知道为什么流量死了,但这就是背后的机制。说白了,光靠自己域名的权重来排名的日子结束了。你要么被别人引用,要么就彻底隐身。
为什么显而易见的补救措施没用
最显而易见的补救措施,就是往这套已经坏掉的系统里砸更多的钱。你的 SEO 公司会告诉你针对 AI 进行优化。他们卖给你一套「AI 内容策略」,把服务费涨到 £6,000。他们用 ChatGPT 账号批量生产更多的常见问题(FAQ),希望能抓取那些长尾的对话式查询。
千万别这么干。现在在你自己的域名上疯狂发内容,反而会害了你。
实际情况是:Gemini 2.5 不需要你的 FAQ 页面。它早就知道锅炉多久需要保养一次。当你发布平庸的 AI 内容时,你稀释了网站的信息密度。你变成了噪音。
这种失败是结构性的。AI 模式是根据全网的「经验、专业性、权威性和信任度」来评估实体的。一个月 £25 的 ChatGPT 订阅,替代不了一个年薪 £35k 的人所拥有的真实行业关系。AI 模型会交叉验证你的说法。
如果你的网站说你使用了最新的热成像技术,但其他地方都没有外部证明,模型就会给你的内容打上标记。没有供应商案例,没有论坛提及,没有公关报道。全是自话自说。模型会直接跳过你。
在我调研 10 月后的流量暴跌案例时,那些每月花 £5,000 做传统 SEO 的企业,回报基本为零。他们是在喂一台已经不存在的机器。
他们尝试用 Zapier 自动发布 WordPress 文章。webhook 触发,服务器解析 JSON,文章上线。流量还是纹丝不动。因为问题不在于数量,而在于验证。
你没法通过在一个空房间里大声喊叫,来自动化地解决「信任赤字」。AI 搜索引擎在寻找外部世界指向你的信号。如果你所谓的补救只是在自家博客上多写点字,你只是在加速自己的边缘化。
真正有效的方法

自动化数据公关流程:Xero 导出数据,经 Claude 处理,直接生成可引用的行业报告。
如果没有庞大的公关团队,你怎么建立多源权威?答案是:把你内部的运营数据变成其他网站想要引用的原创数据。别再写观点了,开始发布事实。
以一家年营收 £5M 的商业园林绿化公司为例。与其写一篇平庸的「绿化成本」博客,不如利用你真实的采购数据来生成行业洞察。
输入很简单。从 Xero 导出一份 CSV 文件,显示过去 24 个月你每月的化肥和草皮成本。
这是你的操作栈:你把那份 CSV 丢进一个指定的 Google Drive 文件夹。一个 Make 场景会监控该文件夹,触发一个带有严格 JSON 模式的 Claude 3.5 Sonnet API 调用。提示词要求模型计算原材料成本的环比增长百分比,并输出一个结构化的摘要。
Claude 返回 JSON 数据。Make 将这些数据导入 Webflow 的 CMS,自动起草一个「英国园林绿化材料成本指数」页面。同时,Make 会把关键统计数据推送到销售人员的 Slack 频道,并在 Gmail 中为行业记者起草一封推介邮件。
这套东西搭建大概需要 2-3 周。成本在 £4,000 到 £8,000 之间,取决于你的 Xero 数据有多乱,以及你需要连接多少个端点。
效果是实打实的。行业杂志和地方新闻网站会报道绿地维护成本的上升。他们会链接到你的「指数页面」,引用你总经理的话。
当用户问 Google AI 模式「为什么现在的商业绿化报价这么高」时,Gemini 会利用那篇行业杂志的文章来合成答案。而那篇文章引用了你的数据。你的品牌在 AI 综述中被定位成了权威来源。你就这样击败了「零引用可见度崩盘」。
这不是什么营销噱头,而是运营转型。你拿出了你已经拥有的数据,用 LLM 进行处理,并分发到 Google 信任的平台上。你完全绕过了 SEO 公司,自己成为了第一手来源。
但你得盯着点儿出错的情况。最大的风险是输入数据太脏。如果你的财务助理在 Xero 里把一笔 £10,000 的机械采购错划到了「化肥」项下,Claude 就会算出 500% 的价格飙升。
解决办法是加入「人工介入」环节。Make 发送一条带有计算统计数据的交互式 Slack 消息。你点击「批准」后,webhook 才会继续流向 Webflow 和 Gmail。系统负责干重火,但最终的验证权在你手里。
这套方法在哪里会失效
这套方法很强,但不是万能的。在投入搞数据驱动的公关引擎之前,你得先看看你的运营现实。
如果你的业务是高度视觉化且极其本地化的,比如紧急锁匠或定制木工,那么多源数据公关就不是首要任务。在这些特定领域的 AI 综述中,Google 本地服务广告和 Google 商家资料(GBP)的评论仍然占据主导地位。
另外,考虑一下你的数据成熟度。如果你的核心业务还在用纸笔记录,这事儿第一天就得黄。如果你的发票是老旧供应商发来的扫描版 TIFF 文件,你得先搞 OCR(文字识别),错误率会从 1% 飙升到 12% 左右。如果你的财务团队每周五下午还在手动把数字敲进 Excel,你根本跑不通自动化的公关引擎。
最后,看看你真实的声誉。生成式引擎优化依赖于外部评价。如果你的产品烂透了,Trustpilot 上全是 1 星差评,那么被引用得越多,只会给 AI 模型喂更多的负面素材。LLM 会精准地总结出你到底有多烂。在尝试放大品牌之前,先解决好你的服务交付。
向 AI 搜索的转型不是一个你可以熬过去的临时小故障。把网站当成自封专家的孤岛,这种日子已经结束了。问题不在于你是否需要针对 AI 进行优化,而在于你是否有运营纪律去提取隐藏在财务软件里的硬数据——因为那是这些新答案引擎唯一真正看重的货币。
别再为没人看的平庸博客付钱了。开始发布关于你所在市场的真相。建立系统,把你的洞察推向算法已经信任的平台。当机器寻找可以引用的权威时,确保你才是那个掌握数据的人。
订阅获取 UK AI 洞察。
针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。
随时取消。
