
你好,我是郑工长。
最近,AI圈发生了一件极具戏剧性、也极其值得我们深思的事情。
一边,是微软研究院发布报告,高调宣称:金融、法律、软件工程等高端白领工作,最容易被AI颠覆。AI的强大能力,似乎已经兵临城下。
但另一边,作为当今世界最顶尖的AI模型之一,Anthropic的Claude,其公司在分析了真实世界的使用数据后,却默默地将AI对生产力提升的预测,直接砍半。
看明白这个巨大的矛盾了吗?
AI正在陷入一个“从‘令人印象深刻’到‘实际有用’的鸿沟”(The Gulf from Impressive to Useful)。它在演示中看起来无所不能,但在真实的、复杂的工作流中,其价值却大打折扣。
这,就是Anthropic“自曝其短”背后,整个AI行业正在面临的、最真实的“价值幻灭”。为什么会这样?
AI的“能力幻觉”:三大工程学“硬伤”
从一个工程师的视角看,造成AI“演示惊艳,落地拉胯”的原因,不是它不够“聪明”,而是它在面对真实世界时,存在三大绕不过去的工程学“硬伤”。
隐性知识的缺失 (Lack of Tacit Knowledge):
- 真实的工作,不仅仅是执行写在文档里的明确指令。它包含了大量的、无法言传的“隐性知识”——比如,如何根据老板的语气调整PPT的措辞;如何在一群人开会时,判断谁是真正的决策者;如何处理一个突发的、流程之外的客户投诉。
- AI不具备这些基于社会经验和人际互动的“隐性知识”。你让它写一份报告,它能做得又快又好;但你让它“搞定”一个复杂的项目,它会处处碰壁。
复杂流程的理解障碍 (Inability to Understand Complex Workflows):
- 真实的工作,是一个由无数个环节、工具、人员构成的复杂流程。一份合同的诞生,需要法务、业务、财务等多个部门的协同。一个软件的上线,需要产品、开发、测试、运维的紧密配合。
- 目前的AI Agent,大多是“单点工具”,它们能解决某个环节的特定问题,但很难理解整个端到端的、充满变化的复杂工作流。它就像一个能力超强的“实习生”,你让他干啥他能干好,但他完全没有“大局观”。
鲁棒性与可信度的脆弱 (Fragility of Robustness and Trust):
- 在演示中,我们总会给AI提供最清晰的指令、最干净的数据。但在真实世界里,充满了各种“脏活累活”——数据是混乱的、需求是模糊的、环境是多变的。
- AI的鲁棒性(即在异常情况下的稳定性)还很脆弱。一个微小的输入偏差,就可能导致它输出完全错误的结果。而在金融、医疗等高风险领域,这种“偶尔犯错”是致命的,我们根本不敢“信任”它。
郑工长总结:从“AI能做什么”到“我该让AI做什么”
所以,Anthropic的“价值幻灭”,不是AI的失败,反而是AI走向成熟的、必经的“清醒时刻”。
它告诉我们所有正在拥抱AI的企业和个人一个至关重要的道理:
在当前阶段,最重要的能力,不是去追逐AI的“新功能”,而是去清醒地评估AI的“真价值”。
你必须从一个“技术乐观主义者”,转变为一个“务实的工程师”,然后问自己三个问题:
- 任务是否可被“形式化”? 这个任务是否能被拆解成一系列清晰、明确、没有太多“隐性知识”的步骤?(例如,总结一篇财报 vs. 搞定一个客户)
- 流程是否“足够简单”? 这个任务是否只涉及少数几个环节和工具,而不需要复杂的跨部门协同?(例如,写一段代码 vs. 负责整个项目上线)
- 容错率是否“足够高”? 这个任务即使AI犯了错,其后果也是可控、可挽回的吗?(例如,AI生成一张宣传图 vs. AI做出一笔投资决策)
如果这三个问题的答案都是“是”,那么恭喜你,这正是AI能大放异彩的地方。如果答案是“否”,那么请立刻放弃让AI“包办一切”的幻想,老老实实地把它当作一个“辅助工具”。
停止问“AI能做什么”,开始问“我该让AI做什么”。
这,才是我们在AI的“价值幻灭期”,最宝贵的生存心法。




