Skip to main content
YUFAN & CO.
返回博客
blog.categories.guides

如何在招聘中避开「合成申请人税」,别让 AI 垃圾简历拖垮你

Yufan Zheng
创始人 · 前字节跳动 · 北京大学硕士
1 分钟阅读
· 更新于
Cover illustration for Beating the synthetic applicant tax in your hiring process

在一个平常的早晨,你打开收件箱。一个中层运营岗,收到了 400 份申请。

你点开第一份。求职信写得无懈可击,整整四大段,说自己“热衷于推动卓越运营”,并“渴望与您的战略目标保持一致”。

点开下一份。结构一模一样。套话也一模一样。

没错别字,没个性。就是一堵 ChatGPT 堆出来的字墙。

以前,你会通过谁肯花时间写一封走心的求职信来筛选人。现在,这个筛选机制彻底废了。申请工作的门槛已经降到了零,你的招聘流程正被这些垃圾信息压垮。

“合成申请人”税

所谓“合成申请人”税,是指你的团队为了阅读、筛选和面试那些在纸面上看起来很牛、实际干活却不行的 AI 选手,所浪费的隐形成本。

这是招聘领域的一次结构性转变。几年前,写一封量身定制的求职信要花 45 分钟。这种门槛起到了天然的过滤作用。它证明了候选人足够想要这份工作,愿意投入精力,也证明了他们能写出通顺的句子。

现在,这道屏障消失了。候选人只需点一下,就能用工具给几百个职位群发申请。BBC 追踪到了这种行为的大规模激增,并指出雇主们正淹没在充斥着“优化我的技能组合”等通用辞令的申请中 来源 (https://www.bbc.co.uk/news/business-68212345)。

这对中小企业打击最大。如果你经营一家 50 人的公司,你没有大企业的招聘团队。你没有一层又一层的 HR 分析师来过滤噪音。最后往往是运营经理、销售总监或者创始人自己,在大半夜苦哈哈地读这些申请。

结果就是,你面试了一堆纸面完美的人。等把他们拉进 Teams 视频通话,他们连自己声称精通的基本概念都解释不清楚。一旦被问到求职信里写的“战略优化”具体案例,他们就直接卡壳。

这笔“税”不仅仅是面试浪费的那 30 分钟。还有频繁切换任务的损耗。还有为一个毫无结果的电话做准备时的挫败感。更有招聘周期中白白流逝的数周时间——与此同时,实际工作堆积如山,你现有的团队因为要填补空缺而精疲力竭。

为什么显而易见的解决方法行不通

最直观的办法是买个现成的“AI 简历筛选器”,或者用 Zapier 把 OpenAI 连起来,给候选人自动打分。

大多数中小企业都会先试这招。他们搞个简单的 Zapier 流程:抓取 PDF 简历,发给 ChatGPT,让它根据职位描述打个分(满分 10 分)。或者每月付钱订个 SaaS 工具,号称能检测 AI 生成的文本。

这两种都没用。而且失败的原因让人深感无力。

首先,AI 检测器根本就是坏的。它们会因为句式太规整,就把非母语者的原创内容标记为 AI;却完全漏掉那些通过精细提示词让 Claude 或 ChatGPT 生成的文本。依赖这些工具,意味着你会拒绝优秀的候选人,却放过那些高明的骗子。

其次,用基础的 LLM 提示词给 AI 生成的简历打分是个坑。LLM 天生就是“马屁精”。它们的设计初衷是预测下一个最可能的词,而不是批判性地评估真实性。如果你的职位要求写着“领导力和主动解决问题的能力”,候选人的 AI 就会生成一份简历,精准地声称自己具备这些。

当你的 Zapier 流程让 ChatGPT 评估那份简历时,模型看到的是完美的字符串匹配。Zapier 基础的 OpenAI 集成缺乏足够的上下文窗口和严格的模式强制执行(schema enforcement),无法真正对照复杂的职位需求来评估简历。模型会偷懒。它看到匹配,给出高分,然后收工。

它给候选人打 9/10 分。你用一个 AI 去读另一个 AI,它们只是在云端互相击掌欢庆。它们完全绕过了你的过滤器。

我经常看到这种模式:公司搭建了这些自动化筛选流,结果发现面试名单里依然全是干不了活的人。他们只是更快地把烂候选人送到了面试环节而已。

你没法通过看语法或匹配关键词来过滤“合成申请”。那些文字写得太好了。你必须改变衡量标准。不要看他们怎么写信,要看他们怎么思考问题。

真正奏效的方法

真正奏效的方法

用 n8n 搭建自动化招聘流:让候选人实战演练,再由 Claude 通过 JSON 评估技术成果。

彻底扔掉求职信。从你的招聘页面上删掉上传附件的框。取而代之的,是一个硬性的、具体的、异步的技能测试,并通过自动化平台进行分流。

你需要一套系统,强迫候选人展示真实的思考,并使用他们工作中会用到的工具。

在操作层面,流程是这样的:

候选人通过一个简单的 Typeform 申请。没有求职信,只有姓名、邮箱和 LinkedIn 链接。

当他们点击提交时,n8n 捕获这个 webhook。自动化程序立即给候选人发一封邮件,里面是一个基于该职位的具体场景。

如果你在招财务助理,邮件会说:“附件是一张供应商发来的乱七八糟的 PDF 发票,以及一张 Xero 对账屏幕的截图。数字对不上。请回复这封邮件,准确说明你会点击哪里来修复它。”

神奇的地方来了。n8n 会等待邮件回复。当回复进入专用的 Outlook 收件箱时,n8n 触发 Claude API 调用。

你不要问 Claude “这是一个好答案吗?”那会引来和 Zapier 简历筛选器一样的“马屁精”行为。相反,你要使用严格的 JSON schema 来提问提取信息:“候选人是否识别出了 £40 的差额?(Boolean)”,“他们是否提到了作废该行项目?(Boolean)”,“语气是否专业?(Boolean)”。

如果关键步骤的 JSON 返回值为 true,n8n 就会把候选人推送到 Pipedrive 的“面试”栏。然后给招聘经理发一条 Slack 提醒,附上候选人解决思路的摘要。如果没通过,n8n 会排队等三天,然后发一封礼貌的拒信。

这套东西搭建起来大约需要 1 到 2 周,成本在 £4k-£8k 之间,取决于你现有的集成情况。API 调用费也就几分钱。

这种做法的高明之处在于它瓦解了 AI 的优势。如果候选人把那个乱七八糟的 Xero 场景复制到 ChatGPT 里,模型会吐出一份教科书式的通用对账指南。它不会知道你那个具体的极端情况(edge case),因为它没有你内部那本烂账的上下文。

候选人回复了一篇关于会计原则的通用论文。Claude 解析回复,发现他们漏掉了那个具体的 £40 差额,直接判定失败。

你不再衡量他们写提示词的能力,而是开始衡量他们解决你实际业务问题的能力。“合成申请人”税消失了。你只会和那些真能干活的人交谈。

这套系统哪里会失效

这套系统非常有效,但不是万灵药。在你决定搭建之前,需要清楚它的局限性。

首先,它不适用于高级战略人才的招聘。如果你在招 CFO 或总经理,你不能给他们发个自动化的 Typeform 和 webhook 测试。他们会直接走人。

这种方法是为高容量、中层职位设计的,这类职位的申请池里全是噪音。比如销售代表、运营经理和初级分析师。

其次,如果你的内部流程本身就没记录清楚,它也会失效。如果你的团队自己都对正确答案没共识,你就没法为 Claude 建立严格的 JSON 评分模式。如果你的发票是老旧财务系统扫出来的 TIFF 文件,而且没人知道清理它们的准确步骤,你就没法拿这个考候选人。

在这种情况下,错误率会从 1% 飙升到 12% 左右,因为 AI 面对的是一个移动的目标,没法准确评分。

最后,你得留意“摩擦力阈值”。如果你把异步测试搞得太长,优秀的候选人会流失。测试完成时间不应超过 15 分钟。它是一个过滤器,不是一个免费的咨询项目。

如果你尊重他们的时间,优秀的人会欣赏这种流程——因为它真正考察的是技能,而不是写通用套话的能力。

这周该做什么

你不能用 AI 检测器去对抗 AI。你必须彻底改变游戏规则。以下是现在就开始调整招聘流程的方法:

  1. 砍掉求职信字段。打开你的 HubSpot 表单、Workable 或任何你用来收集申请的工具。删掉上传求职信的选项。它给不了你任何有效信号,只会浪费你数小时的阅读时间。
  2. 写一个“摩擦力问题”。看看你正在招聘的职位。根据上个月发生的真实问题,写一个非常具体的题目。“Shopify 上的一个客户想退掉损坏的商品,但他们把包装扔了。你怎么回复?”
  3. 测试手动版本。在搭建 n8n 自动化之前,先手动跑一下。把这个“摩擦力问题”发给接下来的 10 个申请人。观察回信。你会瞬间发现谁是真懂行,谁是直接粘贴进 ChatGPT 的。
  4. 梳理评分逻辑。写下正确答案必须包含的三个具体要点。一旦你把这些规则写在纸上,你就准备好用严格的 JSON schema 来实现自动化筛选了。别再读论文了。开始测试技能吧。

订阅获取 UK AI 洞察。

针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。

随时取消。