为什么欧盟《AI法案》也管英国企业?你该如何合规?

你坐在办公桌前,打开 Shopify,看到一个来自里昂的新订单。这感觉像是个小小的胜利。你最近在网店里加了一个挺酷的 AI 聊天机器人,专门用法语和德语处理物流咨询。
它跑在最基础的 ChatGPT 插件上。每个月花你 £40。它每天能给你的运营经理省下三个小时。
但就是这 £40 的订阅费,刚刚把你整个英国公司的业务拽进了欧盟的管辖范围。
大多数英国创始人都觉得脱欧能让他们躲开布鲁塞尔的那帮官僚。其实压根没有。只要你的软件碰到了欧盟公民,你就得负责。刚通过的《欧盟人工智能法案》(EU AI Act)根本不在乎你的公司注册在哪儿。它只在乎你系统的输出结果落在了哪儿。如果你做外贸,你现在用的那些面向客户的工具,在新框架下很可能是违法的。无视这件事算不上什么策略,这叫巨大的、还没标价的风险。
跨国界的 AI 抓捕网
「域外效力」(Extraterritoriality)是《欧盟人工智能法案》里的一个法律机制。说白了,只要你的自动化系统和欧盟公民发生了互动,它就能强迫英国企业遵守欧洲的规矩。你不需要在巴黎开办公室,也不需要在柏林建仓库。只要你的网站服务了一个西班牙客户,你就进网了。
欧洲议会通过了这项里程碑式的法律,根据风险高低来监管人工智能 来源。它明确规定,如果系统的输出结果在欧盟境内被使用,那么欧盟境外的提供者和部署者都得受管。
这就是英国中小企业最容易被打得措手不及的地方。你可能觉得自己只是利兹(Leeds)的一个小零售商。但只要你把生成式 AI 工具塞进客户服务流程,欧盟就认为你是 AI 系统的「部署者」。
英国目前的做法比较宽松,主张亲创新。英国的《人工智能(监管)法案》侧重于原则,而不是死板的禁令 来源。这在国内给你造成了一种虚假的安全感。
创始人们看着国内的新闻,觉得稳了。于是他们搞自动化邮件回复,上线动态定价机器人,甚至用自动化简历筛选器来招远程员工。
接着,一个欧洲客户和这个系统互动了。抓捕网瞬间收紧。不合规的代价极其惨重。罚金从 €7.5 million 或全球营业额的 1.5% 起步。这种规模的罚款不只是让一家年营收 £5M 的公司伤筋动骨,它会直接让你破产。
这事儿之所以一直是个隐患,是因为这些工具太好买了。点三下鼠标,你就能在网站上加个 AI 客服插件。SaaS 厂商把东西卖给你,钱他们赚了,法律责任全留给了你。
这事儿挺蠢的。没人知道为什么合规负担会落在小公司头上,但事实就是如此。没辙。监管机构设计的框架本意是想抓那些科技巨头,但网眼织得太密,连个 30 人的物流公司都能被拽进来。你不能假装没看见,指望他们发现不了你。
为什么指望软件商帮你搞定合规是死路一条
指望你的 SaaS 厂商帮你挡住《欧盟人工智能法案》是结构性的异想天开,因为他们的服务条款里写得清清楚楚:部署者的责任由你承担。
我经常看到律师和顾问告诉创始人,只要用 Microsoft 365 Copilot 或 HubSpot 的 AI 功能这种企业级工具就安全了。他们错了。
拿一个连接 OpenAI 的标准 Zapier 工作流举例。你设置了一个 Zap 来读取 Zendesk 的工单,把文字传给 ChatGPT 草拟回复,然后发邮件给客户。
根据法案,OpenAI 是「提供者」。他们得确保自己的基础模型符合某些技术标准。但你才是「部署者」。
《欧盟人工智能法案》规定,直接与人类互动的 AI 系统必须具备透明度。你必须明确告知用户,他们正在和机器说话。
当你的 Zapier 工作流悄无声息地给都柏林的客户发邮件,还用一个听起来像真人的语气时,你就违法了。OpenAI 不会拦着你,Zapier 也不会。API 只是处理你发过去的 JSON 数据包。
厂商提供引擎,往哪儿开车是你决定的。如果你把车开进受监管区域却没按要求公示,罚单会直接甩到你桌上。API 根本不管跨境贸易规则,它只管返回一串文本。
我反复看到一种套路:创始人用第三方套壳工具嵌入聊天机器人。这些套壳工具在官网首页承诺「AI 合规」。但你去看看那个 webhook。它解析用户输入的 JSON,发给大模型,然后返回答案。
它不检查用户的 IP 地址。它也不验证地理位置。
如果一个德国客户问了个问题,系统对待他的方式和对待曼彻斯特的客户一模一样。缺乏路由逻辑意味着你把「不受监管」和「高度监管」的用户混为一谈。这就是巨大的运营盲区。
你依赖的那些 API 接口对法律完全无感。它们接收输入,生成输出。一旦你假设 HubSpot 或 Pipedrive 会帮你管理跨境法律风险,你就已经失去了对自家系统的控制。
搭建合规的路由层

利用 Make.com 分流英国与欧盟流量,确保 AI 披露声明仅在法律强制时自动触发。
搭建合规路由层的意思,是在系统生成回复之前,拦截每一次客户互动,检查他们的管辖区,并应用正确的 AI 透明度规则。
我们来看一个真实的案例。这是一家年营收 £12M 的电商公司,业务遍布英国和欧盟。他们每天收到 500 封客服邮件。
他们想用 AI 来草拟退货和物流咨询的回复。做法不是把 Zendesk 直接连到大模型,而是在中间加一层中间件。
具体的运营流程是这样的:一封邮件进到 Zendesk。一个 webhook 触发了 Make 里的场景。Make 从 Shopify 调取客户资料,检查他们的收货地址。
如果地址在英国,Make 把邮件正文发给 Claude API,配上标准提示词。Claude 写出一个亲切、像真人一样的回复。Make 把它传回 Zendesk 作为草稿让员工审核,或者直接发出去。
如果地址在欧盟,逻辑就分叉了。Make 还是会调用 Claude API,但在提示词里加了一条死命令:输出内容的开头必须明确、强制声明这条消息是由 AI 生成的。
Make 拿到 Claude 的回复后,会强行插入一个固定的页脚:「此消息由人工智能系统生成。」只有这样,它才会更新到 Zendesk。
在大多数情况下,我建议用 Make 做编排,Shopify 提地理位置数据,Claude 做生成,Zendesk 做交付。
你不是在靠猜,也不是在指望大模型自己记得加免责声明。你是在路由层面强制执行透明度要求。API 调用有一个严格的 JSON 模式,把 AI 的回答和强制性的合规文本分开。
这样一套东西大概要花两到三周搭好。成本在 £6,000 到 £9,000 之间,具体取决于你现有的 Zendesk 标签有多乱。
目前已知的失效模式是数据不匹配。如果客户用一个没关联到 Shopify 账号的新邮箱发邮件,Make 就找不到他们的位置。系统会默认返回一个空值。
这时候你要用「安全失败」(fail safely)原则。如果管辖区不明,系统必须默认执行最严的监管标准。也就是假设他们在欧盟,并加上公示。
没错,这挺烦人的。让英国客户看到 AI 免责声明确实有点别扭。但比起漏掉一个欧盟客户导致违反法案,这点别扭对你的生意来说根本不算什么。
透明度路由的局限性
当你试图把这套东西用在欧盟定义的「高风险」系统上时,透明度路由就彻底失效了,因为那时候简单的免责声明在法律上根本不够。
路由层对客服、营销和基础运营有用。这些是低风险的 AI 使用场景,法案只要求透明度。
但如果你用 AI 来筛选求职者,你就撞墙了。欧盟把用于就业和员工管理的 AI 划分为「高风险」。
如果你用自动化工具解析欧洲应聘者的简历,加个免责声明一点屁用没有。你需要完整的合规评估。你必须证明系统没有偏见。你需要人工监督流程。你还得在欧盟的数据库里注册这个系统。
如果你的发票是欧洲老供应商发来的扫描版 PDF,你用 AI 视觉模型提取数据,那没问题,这是内部行政。但只要那个 AI 模型做出的决定影响了欧盟公民的生计或法律地位,合规负担就会翻十倍。
听好了:你没法用一个聪明的 Make 场景去解决「高风险」分类的问题。
在动手做任何东西之前,先审计你的使用场景。我一直在跟创始人们强调:如果你在给人类行为打分、预测信用度或筛选求职者,赶紧停下。那点技术债不值得你冒法律风险。AI 就该用来搞运营效率和文本处理。把高风险的决策留给人类。
留给你的三个问题
跨国界的 AI 抓捕网已经撒开了。宽限期正在一天天缩短。跨境贸易的规则已经发生了根本性的变化。技术跑得飞快,监管终于追上来了。你今天就得梳理清楚你的自动化系统,别等一次常规的客户互动演变成一场结构性的公司危机。
- 当客户与你的自动化系统互动时,到底是什么技术机制在生成回复前验证了他们的地理位置?简单的 IP 检查在用户开了 VPN 时经常失灵。
- 如果监管机构明天来审计你的客服平台,你能拿出一份日志,证明每一个欧洲用户都被明确告知了他们在和机器说话吗?你需要的是铁证,而不是运营经理的一句口头保证。
- 你现在的 SaaS 订阅里,哪些在后台用了生成式模型?他们的服务条款是不是把部署合规的锅全甩给了你?去读读你聊天机器人供应商网站上的那些小字。
订阅获取 UK AI 洞察。
针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。
随时取消。