你登录 Google Analytics 4。你查看主打产品页面的自然流量。那条线是平的。你查看 Search Console,展示量在往下掉。你跑去问营销外包公司怎么回事,他们给你发来一份 12 页的 PDF,满篇都是算法更新和域名权重。
他们在骗你。或者他们压根就不懂。
你的客户并没有停止寻找软件,他们只是不再用 Google 找了。当一个首席运营官(COO)想要一套新的库存系统时,她不会在 Google 里输入“2026 年最佳库存软件”,然后点开第一个 HubSpot 生成的列表软文。她会打开 Claude 或 ChatGPT。她会输入一段三段话长的提示词(prompt),详细说明她现有的技术栈、仓库位置和预算。她会要求 AI 给个建议。
大语言模型(LLM)给了她一个答案。如果你不在那个答案里,你就不存在。
答案引擎大停电
“答案引擎大停电”(The answer engine blackout)是指 B2B 入站流量突然且永久性的暴跌。原因很简单:买家开始向大模型要供应商推荐,而不是去翻搜索引擎的结果页。
这是一个结构性转变。这不是那种靠搞点外链就能修复的暂时性下跌。搜索正在从“检索”转向“生成”。
HubSpot 深知这一点。这就是为什么他们刚刚收购了一家才成立 10 个月的以色列初创公司 XFunnel 来源。XFunnel 不做传统的 SEO,他们做的是“生成式引擎优化”(GEO)。他们帮品牌监控并把自己植入到大模型吐出的答案中。
想想这笔交易的速度。HubSpot 是一个完全建立在“入站营销”手册上的巨头。他们发明了那种靠写没完没了的博客来抓取搜索流量的模式。现在,他们买下一家极小的初创公司,要把整个模式转向 AI 原生搜索。
收购 XFunnel 是目前最响亮的警钟。这家公司由 Beeri Amiel 和 Neri Bluman 在十个月前创立,整个模型就建立在一个简单的逻辑上:传统搜索快死了。营销团队需要新工具,去应对一个由大模型直接给答案的世界。
HubSpot 起初是作为客户接触他们的,然后直接把公司买了。他们把这称为新版“循环营销”(Loop Marketing)手册的一部分。他们看到了风向。他们知道旧的入站模式已经玩不通了。
如果你经营一家 B2B 中小企业,这事儿对你的打击是双重的。首先,你那些昂贵的內容营销不再产生线索了。其次,那些搞清楚了如何给 Claude 和 Perplexity 喂数据的竞争对手,会在你还没察觉有潜在客户在搜寻时,就把你的客户抢走。
这事儿你躲不过去。
为什么那些“显而易见”的法子没用
那种拼命刷 AI 生成博客的“显而易见”的法子跑不通,因为大模型会惩罚冗余信息,并主动降权那些提供不了独特事实的域名。
当中小企业发现流量大停电时,他们会恐慌。他们炒掉旧的 SEO 公司,请来 AI 营销顾问。或者干脆自己上手。
最常见的法子就是堆量。你买个 £25/月的 ChatGPT Plus 账号,把它连上 Zapier。你用 Zapier 的 OpenAI 插件根据 RSS 订阅源生成文字,再通过一个简单的 webhook 推送到 WordPress。你觉得如果你一周能发 50 篇,AI 搜索引擎就不得不注意到你。
这事儿彻底失败。实际上,这会让你的可见度变得更糟。
真实情况是这样的:像 GPT-4 或 Claude 3.5 Sonnet 这样的大模型,爬取网页不是为了看关键词密度,它们看的是信息密度。它们想要的是新颖的事实、结构化的数据和独特的断言。
大模型的设计初衷就是压缩信息。它们惩罚冗余。当你的 Zapier 工作流把 ChatGPT 生成的废话推送到博客时,网页爬虫会解析它。它们提取实体,把事实与已知信息对比。结果发现:零新信息。你的内容只是它们训练数据的一个低分辨率副本。
这个机制很残酷。爬虫会把你的域名标记为“低信号源”。它会降低你的实体权重。它不再把你的网站作为主要来源返回,因为你相对于它的基础权重没有任何增量信息(delta)。
在我审计这些配置的经验中,有些公司每个月花 £2,000 买自动化内容工具,结果只是在稀释自己的品牌。他们造了一台机器,主动教会 Perplexity 忽略自己。
你没法靠 SEO 走出这个困局。你也没法通过喂给 AI 它自己的产出来欺骗它。你需要给它结构。
真正奏效的方法

一边是普通的营销博客,另一边是机器可读的 JSON 文档,后者能让 LLM 抓取更准、效率更高。
真正奏效的方法是:把平庸的营销文案换成高密度的、JSON 结构化的文档,把大模型当成一个 API 客户端来对待。
别再写那些套话连篇的博客了。开始发布高度结构化的文档。
大模型想回答具体问题。比如:“Xero 是否支持 Shopify 在英国的多币种交易?”如果你的网站上是一篇 2,000 字的关于零售历史的故事,大模型会跳过它。如果你有一个干净、结构化的集成限制表,大模型就会引用你。
这是具体的搭建步骤:
首先,梳理你产品的独特主张。价格档位、功能限制、API 频率限制和特殊情况。把这些写成原始事实。不要营销话术,不要废话。
然后,搭一个管道来输出这些数据。用 n8n 设一个 webhook。当你在 Notion 或 Airtable 里更新产品规格时,触发这个 webhook。它把原始文本发送给 Claude API(使用 Claude 3.5 Sonnet 模型)。
在 API 调用中强制执行严格的 JSON schema。告诉 Claude 解析新功能并以结构化的“键值对”形式输出。为功能名称、兼容性和价格影响定义精确的字段。
接着,n8n 工作流把这些 JSON 直接推送到你网站的后端。如果你用 Supabase,就通过 REST API 更新数据库。你的 Next.js 前端会把它渲染成一个干净的、机器可读的功能矩阵。
现在,当 GPTBot 爬取你的网站时,它撞上的是纯粹的高密度事实。它摄取了你的价格,映射了你的集成,它准确地理解了你是做什么的。
你还需要测试。设置一个自动化检索检查。运行一个定时 n8n 脚本,每周请求一次 Perplexity API。问它:“对于使用 Xero 的英国中小企业,最好的库存软件是什么?”
读取它的回复。如果你的品牌没出现,在 Slack 里报警。如果提到了你的品牌但价格错了,提醒你的运营经理。
这套东西需要 2-3 周的专注投入。根据你目前数据的混乱程度,预计花费在 £6k 到 £12k 之间。
这不是营销。这是数据工程。你把大模型看作一个 API 客户端,你正在为它提供卖掉你产品所需的精确载荷(payload)。
哪里会出问题
如果你卖的是纯大宗商品,或者依赖老旧的本地 ERP,又或者把价格藏在销售电话后面,这种数据结构化的方法就彻底歇菜了。
这招并不适合所有人。在投入预算之前,你得先看看你的市场。
如果你卖的是纯大宗商品,这招立马失效。如果你卖的是标准 A4 打印纸或基础办公椅,再多的 JSON 结构化也不会让大模型在意你的品牌。AI 只会推荐亚马逊或最便宜的本地供应商。这里没有什么复杂的技术问题需要它回答。
如果你的核心产品数据锁在老旧系统里,这招也会失败。如果你的价格存在一个用了 15 年的本地 ERP 里,而且只能导出扫描版 PDF,那你就撞墙了。
你得先对文档跑 OCR(光学字符识别)。你的错误率会从 1% 飙升到 12% 左右。大模型最后会对着你的价格一本正经胡说八道,因为你的源数据就是脏的。
如果你的销售流程完全依赖“隐藏价格”,你也会遇到瓶颈。如果你拒绝公布成本,坚持只放一个“预约演示”按钮,大模型就没法抓取你的档位。它只会简单地推荐那个公布了数字的竞争对手。
如果你的产品很简单,别搞这套。如果你的 B2B 销售周期涉及买家询问多变量问题,那就搞起来。
为了讨好搜索算法而写 500 字文章的时代结束了。全球最大的入站营销公司刚刚砸下数百万美元收购一家 AI 答案引擎初创公司,因为他们知道游戏规则变了。你可以继续付钱给外包公司产出没人看的平庸内容,或者你可以重构你的数据,让机器真正理解你在卖什么。你无法忽视“答案引擎大停电”。问题不在于买家是否会用 AI 寻找供应商,而在于你的业务是否以这些模型推荐你所需的精确格式存在。
订阅获取 UK AI 洞察。
针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。
随时取消。
