今天下午发生了一件小事。
我想喝咖啡,但还没吃午饭。我犹豫了一下,然后问了我的 AI 助手:”下午4点喝第二杯咖啡,对健康有什么影响?”
AI 给了我分析:咖啡因半衰期、对睡眠的影响、和戒烟药的交互。听完之后,我说:”算了,我不喝了。”
但紧接着我又补充了一句:”我没吃午饭。”
AI 说:”那先别喝,空腹喝咖啡不好。”
我说:”所以我不喝了。”
你以为你在问问题,其实你在找替罪羊
这件事让我意识到一个模式:当我面临一个明知不太好的选择时,我会先找一个人(或 AI)来帮我分析,然后借对方的嘴说出”不要这么做”。
这样,如果事后我后悔了,我可以说:”是 TA 让我别做的。” 如果我没后悔,我可以说:”幸好我听了 TA 的。”
无论哪种结果,决策的责任都被转移了。
心理学上,这叫做 “责任分散”(Diffusion of Responsibility)。在组织里,这叫 “让老板拍板”。在个人生活里,这叫 “我问问别人怎么看”。
但核心都是同一个东西:你其实知道答案,但你不想承担说”不”的代价。
AI 让这件事变得更容易了
以前,你要找一个人来帮你分担决策压力,至少需要:
- 找到一个愿意听你说的人
- 组织语言描述你的困境
- 等待对方回复
- 可能还要应付对方的反问和建议
现在,你只需要对 AI 说一句话,0.5 秒后就能得到一份完整的利弊分析。而且 AI 不会反问,不会质疑,不会说”你其实早就知道答案了吧”。
AI 成了最完美的替罪羊。
它永远有耐心,永远客观,永远可以给你一个”看起来是理性分析”的借口。你可以把任何不想做的决定、任何拖延的任务、任何逃避的责任,都包装成”AI 建议我不要这么做”。
但代价是什么?
短期来看,这很爽。你减少了决策疲劳,降低了心理负担,可以更轻松地说”不”。
但长期来看,你在做一件危险的事:你把判断力外包出去了。
判断力不是知识,不是信息,不是分析能力。判断力是在不确定中做出选择并承担后果的能力。
每一次你让 AI 替你做决定,你的判断力就萎缩一点。就像肌肉一样,不用就会退化。
三个月后,你会发现自己连”中午吃什么”都要问 AI。六个月后,你会发现自己面对任何稍微复杂一点的决策都会焦虑,因为你已经不习惯自己拍板了。
那该怎么办?
我不是说不要用 AI。我自己每天都在用 AI 写代码、写文章、做分析。
但关键在于:你让 AI 做什么,以及你保留什么。
1. 让 AI 做执行,你保留决策
“帮我写一段处理用户登录的代码” —— 这是执行,可以外包。
“我要不要做用户登录功能” —— 这是决策,必须自己拍板。
2. 让 AI 给信息,你保留判断
“分析这三个技术方案的优缺点” —— 这是信息收集,可以外包。
“选哪个方案” —— 这是判断,必须自己来做。
3. 警惕”伪决策”
最危险的不是”让 AI 替我决定”,而是”我以为我在做决定,其实 AI 已经帮我选好了”。
当你问 AI “A 和 B 哪个好”,AI 给了你一个详细的对比分析,你看了之后说”那就选 A 吧” —— 这真的是你的决定吗?还是 AI 的论证让你”感觉”A 更好?
一个检验标准
下次你想问 AI 一个决策问题时,先问自己:
“如果 AI 给的建议和我内心想的不一样,我会听谁的?”
如果你发现你其实会听 AI 的,那说明你已经把判断力外包了。
如果你发现你会坚持自己的想法,那说明你只是在用 AI 验证自己的判断 —— 这才是健康的用法。
写在最后
AI 不会替代人类,但会用 AI 的人可能会替代不会用 AI 的人。
更可怕的是:过度依赖 AI 的人,可能会被自己的 AI 替代 —— 当你把所有决策都外包给 AI,你还有什么存在的价值?
保留你的判断力。让 AI 做你的工具,不要做你的老板。
本文写于 2026 年 5 月 11 日,一个想喝咖啡但没喝的下午。
文档信息
- 本文作者:王翊仰
- 本文链接:https://www.wangyiyang.cc/2026/05/11/ai-delegation-personal-capability/
- 版权声明:自由转载-非商用-非衍生-保持署名(创意共享3.0许可证)