Skip to main content
YUFAN & CO.
返回博客
blog.categories.seo

如何在 AI 驱动的 B2B 搜索时代赢得推荐

Yufan Zheng
创始人 · 前字节跳动 · 北京大学硕士
1 分钟阅读
· 更新于
Cover illustration for Winning the recommendation in the era of AI-driven B2B search

看看现在的初级分析师是怎么调研软件的。他们不打开 Google。他们打开 OpenAI 的 Atlas 浏览器,点击侧边栏,然后输入一段指令:帮我找三款英国本土的库存管理工具,要求能原生集成 Xero 和 Shopify,并对比一下 50 人团队的使用价格。

Atlas 会直接出发,在后台阅读十二个网站,自动过滤掉那些虚头巴脑的营销话术,然后吐出一张整齐的对比表。传统的搜索引擎结果页(SERP)彻底没戏了。

如果你的 B2B 营销策略还在死磕英国最佳库存软件这种关键词排名,那你是在为一个买家早就离场的游戏做优化。

零点击坟场

零点击坟场

AI 浏览器直接抓取技术参数,绕过落地页的营销套路,让传统转化漏斗彻底失效。

零点击坟场是指这样一种状态:你公司的网站依然排在 Google 第一页,但你的获客线索量却掉到了零。因为 AI 智能体(AI agents)直接回答了买家的问题,买家压根不需要点开你的链接。这是 B2B 采购方式的结构性转变。你不再是向一个盯着屏幕看的人做营销,你是在向一个抓取事实的机器人做营销。

OpenAI 的 Atlas 浏览器和 Perplexity 这类工具根本不在乎你的关键词密度,也不在乎你的外链情况。它们在乎的是信息密度。当一名运营经理让浏览器找一家物流合作伙伴时,AI 智能体会纯粹根据你的网站提取所需参数的速度来评估你。这些浏览器的代理能力意味着它们会在后台打开标签页、翻阅你的文档并合成答案。

如果你的网站充斥着行业领先的服务和定制化工作流这种模糊的承诺,智能体就会跳过你。它需要知道你的 API 是否支持 REST,你的频率限制是多少,以及你是否处理危险品。它找的是表格、要点列表和清晰的技术规格。

这影响着每一个 B2B 行业。这种情况之所以持续,是因为营销团队还在拿有机流量和曝光量当指标。但当 AI 智能体替用户读书时,流量就只是个虚荣指标。

随着 AI 助手变得越来越自主,甚至能在用户开口前就预测其需求 来源,排名与收入之间的鸿沟只会越来越大。你可以拥有全世界的流量,但如果智能体解析不了你的数据,你就是隐形的。零点击坟场里塞满了设计精美、却忘了怎么跟机器沟通的网站。

疯狂产出 AI 生成的博客文章

大多数中小企业老板的第一反应是用魔法打败魔法:买个 ChatGPT 账号,疯狂产出几百篇平庸的博客文章,试图撒大网捕鱼。这在理论上听起来逻辑通顺——既然 AI 在读网页,那我就多给它点网页读。

但实际情况是这样的:你每个月花 £2,000 请个代理公司或初级营销员,炮制出没完没了的如何选择供应商之类的文章。内容语法完美,但毫无见地。你每周发布三次,用一堆引言段落和反问句来填充博客。

我反复看到的情况是,这反而会损害你的可见度。像 Atlas 内置的那种 AI 智能体,其设计初衷是优化用户的时间。它们有严格的上下文窗口管理。当浏览器智能体撞上一篇 2,000 字的 SEO 文章,而这些内容本可以用一张三行的表格说清楚时,它不会读完。它会截断文本,因为找不到硬核事实而直接放弃你的域名。

这里的机制很简单:大语言模型会惩罚低信息密度的内容。它们被训练用来提取实体、关系和硬数据。当你把实际的产品规格稀释在五十页 AI 生成的废话里时,你让智能体的工作变得更难了。LLM 会在这些废话里迷失方向。

那些自动把 RSS 订阅发布到博客的 Zapier 自动化流救不了你。市面上那些承诺 AI SEO 的现成 SaaS 工具,不过是换了个标签卖给你同样的关键词堆砌蛇油罢了。

你没法通过喂给生成式引擎它本就被训练去过滤掉的垃圾来欺骗它。它会忽略噪音,寻找信号。如果你只是在制造噪音,你最终还是会回到零点击坟场。

意图驱动的生成式引擎优化

意图驱动的生成式引擎优化

通过 n8n 和 Claude,把杂乱的供应商 PDF 自动转成 Shopify 能读的 JSON 数据。

意图驱动的生成式引擎优化意味着重构你的公开数据,这样当 AI 智能体抓取你的网站时,它找到的是稠密的、结构化的事实,而不是营销废话。你不再为搜索算法写作,而是开始为 LLM 构建数据管道。

你不需要营销公司来做这件事。你需要的是运营搭建。目标是将你内部已有的硬核事实数据,以一种 AI 智能体能瞬间消化的模式(schema)暴露出来。

以一家批发业务为例。你每月会收到主要供应商发来的 PDF 产品更新。与其让初级文案把这些变成博客文章,不如把提取过程自动化。

这是具体的流程:一个 n8n webhook 监控 Google Workspace 里的特定文件夹,看是否有新的供应商 PDF。文件一落地,webhook 就会触发 Claude API 调用。你给 Claude 一个严格的 JSON schema,指示它提取产品名称、精确尺寸、SKU、批发价和兼容性限制。

Claude 解析 PDF 并返回干净的 JSON。然后 n8n 工作流将这些数据直接推送到你的 Shopify CMS,并更新你的 Airtable 库存库。它在你的产品页面上以严格的 schema markup 格式输出。它剥离了所有的形容词,只留下数据点。

当 Atlas 用户要求浏览器寻找 50mm 黄铜配件的批发供应商时,智能体访问了你的网站。它不需要读段落,它读的是 JSON schema。它能瞬间登记尺寸、库存水平和价格。你赢得了推荐,因为你的数据结构正是机器想要阅读的样子。

搭建这样一个管道,预计需要 2-3 周的开发时间和 £6k-£12k 的成本,具体取决于你现有的供应商数据有多乱。

主要的失败模式是提取阶段的幻觉。Claude 可能会读错零件号,或者把包装尺寸和单价搞混。你可以通过在 Slack 中加入人工介入步骤来解决这个问题。n8n 工作流将提取的 JSON 发到 Slack 频道。运营经理点击批准按钮,触发 webhook 完成 Shopify 更新。这只占用人类五秒钟的时间,但保证了绝对的准确性。

当你的核心数据锁在老旧格式里时

如果你的底层产品数据只存在于扫描图像或非结构化的老旧格式中,这个自动化管道就会彻底崩溃。如果你自己都没有干净的数据,你就没法给 AI 智能体提供干净的数据。

注意这一部分。在你投入精力构建提取工作流之前,必须审计原始信息的来源方式。如果你的发票和供应商规格书是来自老旧会计系统的扫描版 TIFF 文件,你会碰壁。

你需要先加一层 OCR(光学字符识别),而错误率会从 1% 飙升到 12% 左右。Claude 在解析 PDF 里的原生文本时表现出色,但如果要它去读一张 1998 年传真过来的、模糊不清的规格书扫描件,它会很吃力。格式会乱掉,列会对不齐,JSON 输出也会变得不可靠。

如果你的团队依赖手写笔记或未记录的经验之谈,情况也是一样。API 没法查询你脑子里的东西。如果你的独特卖点是创始人烂熟于心的定制配送路线,AI 智能体永远看不见它。在优化事实之前,你必须先将事实数字化。先搞定内部数据卫生,否则自动化只会放大你的混乱。

问题不在于 AI 智能体是否会改变买家找到你的方式,而在于你是否愿意剥离营销假象,展示业务中原始的、事实性的效用。买家正在武装自己,用那些能无情过滤噪音的工具。他们不想读你的思想领导力文章。他们想知道你的 API 能不能连上 Stripe,你的起订量是多少,以及你明天早上能不能发货。如果你把这些事实藏在厚厚的合成文本后面,你就会输给那个简单地用干净 JSON schema 列出数据的竞争对手。别再试图在写作上赢过机器了。开始结构化你的事实,好让机器能读懂它。

订阅获取 UK AI 洞察。

针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。

随时取消。