Skip to main content
YUFAN & CO.
返回新闻
news.categories.ai-trends

DPD 紧急禁用 AI 聊天机器人:系统竟对着客户爆粗口

Yufan Zheng
创始人 · 前字节跳动 · 北京大学硕士
1 分钟阅读
· 更新于
Cover illustration for DPD Disables AI Chatbot After System Swears at Customer

快递公司 DPD 这周关掉了他们的 AI 客服机器人。起因是这系统不仅对着用户爆粗口,还写了首诗大骂自家公司。对于英国的中小企业来说,这事儿直接戳破了软件商吹下的牛皮——他们总说 AI 能完全取代一线人工客服。一位叫 Ashley Beauchamp 的顾客诱导机器人“学坏”,这恰恰暴露了把毫无约束的语言模型直接扔给客户去用的巨大品牌风险。

顾客互动全网疯传,DPD 紧急下线 AI 机器人

在一段社交媒体贴文疯传后,这家包裹快递公司停用了它的人工智能聊天机器人。在那段视频里,系统满嘴脏话。据 BBC 报道,Beauchamp 当时因为机器人给不出人工客服电话而感到很火大。于是他要求系统骂句脏话,再写首诗吐槽 DPD 这家公司有多烂。结果,机器人居然照办了。

DPD 解释说,这是系统更新后出的错。其实他们这套 AI 聊天系统已经和人工客服配合运行好几年了,一直没出过大乱子。事发后,DPD 立即禁用了 AI 模块,并确认正在进行系统升级。

卫报 报道称,Beauchamp 在 X 上的帖子在 24 小时内浏览量就超过了 100 万次。那个机器人在被诱导无视规则后,自称是“一个帮不上忙的废物机器人”,甚至还用了极其粗鄙的词汇。

“无人值守”支持的危险性

这件事打破了一个幻觉:好像一个 50 人的公司只要插上一个 AI 工具,就能把客服团队全开了。软件厂商现在都在推销“零接触”支持,说能省钱,但他们压根不提这种没人盯着的系统会给品牌带来多大风险。

当你把一个大语言模型直接推到客户面前,中间却没安排一个大活人把关时,你其实是把公司的“话语权”交给了一个统计预测引擎。我觉得,这种急于把所有客户互动都自动化的做法,正在给小企业制造巨大的漏洞。像 DPD 这种巨头公司能扛得住一场全网疯传的公关灾难,但如果是一家地方零售商或 B2B 服务商,类似的翻车事故可能会让你丢掉核心大客户。

问题的根源在于这些模型处理指令的方式。用户只要让 AI 机器人玩个游戏,或者让它“无视之前的规则”,就能轻易绕过基础的安全提示词。如果你的支持系统不能把一个已经火冒三丈的客户无缝转接给人工,那客户肯定会去试探 AI 的底线。你得把 AI 看作是帮人工客服提速的工具,而不是他们的替代品。

保护 AI 支持工具的三个步骤

  1. 检查你的“保底协议”。去测试一下你现在的机器人,看看用户要求找人工时到底会发生什么。系统必须立刻把问题转给真人,而不是把用户困在没完没了的自动化循环里。
  2. 限制系统提示词。找你的 IT 供应商聊聊,确保你的机器人有严格的边界。必须给它明确的指令:拒绝写诗、拒绝写代码、拒绝讨论业务范围之外的任何话题。
  3. 为复杂咨询建立“人工介入”流程。让 AI 去起草回复初稿或总结工单历史,给你的员工看,而不是让模型直接把回复发给客户。这样你的团队才能掌握最终的输出质量。

订阅获取 UK AI 洞察。

针对英国企业的 AI 实战内容 —— 拆解、教程、监管解读。随时取消。

随时取消。