你现在打开 LinkedIn,满屏都透着一种「强行营业」的荒凉感。每隔一条动态就是个带项目符号的列表,聊什么领导力,全是 LLM 生成的,点赞的是机器人,真人压根不看。你再看看自家公司的账号,阅读量比去年掉了 47%。你纳闷是营销经理不会写词了,还是算法成心跟你过不去。
确实是算法在搞你,但原因可能跟你想的不一样。2024 年底,LinkedIn 彻底废弃了以前那套靠「数数」来排名的算法,上线了一个叫 360Brew 的模型。这是一个拥有 150 billion 参数的 AI 模型。它不数你的标签(hashtag)有几个,它直接读你的文字,读你的个人档案。它现在的任务就是主动猎杀那些平庸、低成本的 AI 内容,然后把它们压死。
AI 同质化税
所谓「AI 同质化税」,就是 LinkedIn 的 360Brew 算法对那些缺乏独特语义深度、读起来一股 LLM 味儿的帖文,默认为其扣除 30% 到 50% 的流量惩罚。
这可不是什么阴谋论。这是 2026 年 LinkedIn 评估内容的底层逻辑。老算法是用成千上万个碎片化模型去数点赞、数评论、数停留时间。那时候,如果你发个平庸的列表文,然后在头一个小时找十个哥们儿来评论,你就能火。
那个时代死透了。360Brew 是一个统一的、仅解码(decoder-only)的 Transformer 模型,是用 LinkedIn 内部的专业数据训练出来的 来源 (https://propelgrowth.com/linkedin-algorithm-reset-q4-2025/)。它不光看互动速度,它还会对你的帖子进行「零样本推理」(zero-shot reasoning),以此来理解你的意图、语境和专业水平。
当你的运营经理用 ChatGPT 攒出一篇关于「物流未来」的稿子时,生成的文字在统计学上就是一堆平庸的概率组合。360Brew 能识别出这种可预测的 Token 分布。它会给这篇帖子打上「低成本投入」的标签。接着它会查你的档案:如果你头衔写的是「销售总监」,却突然发了一堆关于供应链物流的 AI 废话,模型就会判定你的内容和身份「不一致」。
LinkedIn 会先拿一小波测试观众试水。你的帖子没通过语义深度检查,然后就没然后了。这事儿坑惨了所有想通过把内容外包给「月薪几千块加 25 英镑 ChatGPT 账号」的运营人员来打造个人品牌的中小企业老板。
你越想用平庸的指令(prompt)去自动化你的「思想领导力」,你交的 AI 同质化税就越多。你在一个严厉惩罚「灌水」的系统里拼命追求「产量」,这事儿压根跑不通。
为什么那些「显而易见的招数」没用
全自动的 AI 发帖流水线之所以完蛋,是因为 360Brew 会主动惩罚 LLM 生成的那种可预测的 Token 分布 and 缺乏语义新颖性的内容。大多数中小企业老板觉得这好办:搞个 Zapier 自动化,从行业 RSS 订阅源里抓文章自动生成草稿;或者买个现成的 SaaS 工具,人家承诺能写出「爆款钩子」。
但实际情况是这样的:你设了一个 Zapier 自动化盯着某个行业博客。新文章一出,Zapier 就把 URL 扔给 ChatGPT,让它写一段「引人入胜的 LinkedIn 帖文」。然后 Zapier 直接把结果推到你的 HubSpot 或 Buffer 发送队列里。
看着你好像发得很勤快。但从底层逻辑上看,你是在给 360Brew 算法喂毒药。
我帮几十家中小企业诊断过内容流水线,这种全自动方案之所以失败,是因为它根本没搞懂 LinkedIn 现在想要什么。360Brew 不要量,它要的是「知识密度」和「人设一致性」 来源 (https://botdog.co/blog/linkedin-algorithm)。
当 ChatGPT 总结一篇文章时,它会磨掉所有尖锐的观点,删掉那些带血带肉的、辛苦换来的实战经验。它吐出来的是一个干净、带项目符号的摘要,跟那一小时内发出来的另外 4,000 条 AI 帖子长得一模一样。360Brew 的 Transformer 架构能轻而易举地识破这种语义上的陈词滥调。它知道你只是在把互联网上的话又嚼了一遍吐出来。
更糟的是,有些老板还想耍小聪明,用 AI 评论群组去刷早期互动。在旧规则下,前 60 分钟的一波评论能保你流量。现在,360Brew 能识别出自动生成的评论,并反手给作者一个惩罚。现在的算法其实更看重「延迟互动」。发布 48 小时后的一条走心评论,权重是前 10 分钟那些敷衍回复的 4 到 6 倍。
25 英镑一个月的 ChatGPT 账号顶不掉 3.5 万英镑年薪的人才,更顶不掉你脑子里那些真金白银的专业经验。当你把观点外包给 LLM 时,你就亲手删掉了算法最想奖励的那些信号。
真正管用的法子

Make 调用 Claude API 并通过严格 JSON 模式提取 PDF 数据,再将事实同步至 Notion 供人工审核。
想在 360Brew 时代活下来,你得从公司内部运营中榨取「私有数据」,把 AI 严格限制在「排版工具」的角色上,而不是让它搞创作。你需要建一套系统,捕捉你业务运行中产生的「废料」。
拿一家 B2B 物流公司举个具体的例子。我们不让 Claude 去写什么「供应链趋势」,我们直接对接现实。每周,运营总监都会收到一份主要货运供应商发的 PDF 报告,里面全是港口延误和集装箱定价的细节。
我们用 Make 搞了个自动化。运营总监把那份 PDF 转发到一个专门的 Gmail 邮箱。Make 的 webhook 抓到邮件,提取 PDF 附件,发给 Claude API。
注意这一步:我们不让 Claude 写 LinkedIn 帖子。我们用一套严格的 JSON 模式(schema)。系统指令要求 Claude 只提取三样东西:本周涨幅最大的价格、导致延误最严重的特定港口,以及一个跟主流新闻相反的数据点。
Claude API 返回一个干净的 JSON 数据包。Make 解析这个 JSON,把它作为草稿推送到 Notion 数据库里。
这时候,真人才上场。创始人打开 Notion,看到提取出来的硬核数据,加上一句自己最直观的看法:「大家都在抱怨费利克斯托港,但我们的数据显示南安普顿港正悄悄增加 4 天的周转时间。各位规划第三季度库存时留神。」
这只花掉真人两分钟。你把这段话拷出来,直接发到 LinkedIn 上。
因为帖子里有具体的私有数据,还有明确的、反直觉的立场,它的知识密度极高。360Brew 读完,识别出了语义深度,发现这跟创始人的「物流专家」头衔完美匹配。读者会收藏这条帖子,因为里面有能帮他们赚钱的数据。在 360Brew 算法下,「收藏」是新的北斗星指标,权重是「点赞」的五倍。
搭这么一套流水线大概需要 2 到 3 周,成本在 £4,000 到 £8,000 之间,具体看你的原始数据有多乱。
这套方案唯一的死穴是 OCR(文字识别)失败。如果你的供应商发的是扫描件 TIFF 而不是原生 PDF,文字提取就会出错,Claude 可能会为了填满 JSON 模式而胡编数字。所以你必须在 Notion 里加一个人工审核环节,绝对不能直接自动发布到 LinkedIn。一旦你让机器在没人盯着的情况下发数据,你就是在拿自己的名声玩火。
哪里容易翻车
如果你的业务没有细分领域,或者没有私有数据源,这套提取数据的法子就彻底没戏。360Brew 极其看重「话题一致性」。算法要求你选定两三个跟个人档案匹配的核心话题,并且至少坚持 90 天。
如果你的 Notion 流水线周二给你推了个关于商业地产的洞察,周四又给你整了个关于软件定价的犀利观点,算法就懵了。它会觉得你的人设不一致,然后制造掉你的流量,不管你单篇帖子写得有多好。机器想要的是一条清晰、可预测的赛道。
在动手搭这套东西之前,你得先审视一下自己的「业务废料」。如果你每天接收的信息只是些大众化的行业新闻简报,那把它们过一遍 Claude 也只是得出一个稍微高级点儿的「同质化垃圾」。
你手里必须有私有数据。原始的客户访谈录音、乱七八糟的供应商发票,或者是内部 Slack 里的争论。如果你没有独特的输入,再牛逼的 API 编排也救不了你的阅读量。机器只能解析你喂给它的现实。如果你的现实很平庸,你的输出也会一样。语义深度这玩意儿,装不出来。
留给你的三个问题
审计你的 LinkedIn 策略,需要对照 360Brew 的新语义要求来测试你的自动化流水线。这个平台现在要求的是真才实学,而且它有足够的技术手段来强制执行。在你给下一个社交媒体排期工具掏钱,或者再订一个承诺能写出「爆款钩子」的 AI 写作工具之前,先拿现实测测你现在的路子。别再想着用一段平庸的指令去忽悠一个 150 billion 参数的模型了。
- 如果把我最后五条 LinkedIn 帖文里的名字和公司 Logo 抹掉,我的竞争对手能不能一字不改地直接发出来?
- 我的 LinkedIn 个人简介头衔,跟我那套自动化内容流水线产出的技术话题,到底对不对得上?
- 我是在给 AI 工具喂原始的、私有的业务数据来提取洞察,还是仅仅在让 LLM 总结谁都能读到的公开文章?
订阅获取 UK AI 洞察。
针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。
随时取消。
