
你好,我是郑工长。
先说一个背景:EDA 是什么?
EDA(Electronic Design Automation,电子设计自动化)是芯片设计的核心工具。简单说,它就是芯片设计师的"CAD 软件"。没有它,现代芯片(几十亿个晶体管)根本无法设计。全球市场被 Synopsys、Cadence、Siemens 三家垄断了 30 年。
最近圈子里都在炒"EDA 智能体元年"。吵得凶,不代表看得清。很多人觉得就是加了个 Copilot,代码补全快了点,布局布线省了点时间。肤浅。如果只把 AI 当成一个更快的脚本工具,那你连这场变革的门槛都没摸到。这背后,是芯片设计流程的根本性重构,是人机分工界面的彻底迁移。
看明白了吗?以前我们谈 EDA,谈的是工具链的集成,是流程的自动化。现在谈 AI Agent,谈的是决策权的让渡。这两者有本质的区别。工具是没有自主性的,你让它画线,它画线,画错了是你指令的问题。但 Agent 是有自主性的,你告诉它目标,它给方案,方案错了,可能是它"理解"的问题,也可能是它"推理"的幻觉。
别被效率提升迷了眼
很多厂商宣传的时候,喜欢拿数据说话。比如“布局布线时间缩短 30%",“验证覆盖率提升 20%"。这些数据没错,但它们是战术层面的胜利,不是战略层面的洞察。作为工程师,我们要看第一性原理。芯片设计的本质是什么?是在功耗、性能、面积(PPA)的约束下,寻找最优解的空间搜索过程。
传统的 EDA 工具,是把搜索空间网格化,用确定性算法去遍历。工程师的价值,在于凭借经验去剪枝,告诉工具哪些路不用走。而 AI 智能体的出现,实际上是引入了一个概率性的搜索模型。它不是遍历,它是预测。
传统的 EDA 是“执行者”,AI 智能体是“探索者”。执行者追求确定性,探索者追求可能性的边界。
这就带来了一个工程上的巨大挑战:确定性 vs 概率性。芯片制造是原子级的工程,光刻机刻下去,错了就是废片,几千万美元打水漂。软件错了可以打补丁,硬件错了只能改掩膜版。所以,芯片设计对“鲁棒性”的要求是极高的。
当一个概率性的模型介入到一个要求确定性的流程中,中间的摩擦系数是非常大的。你不能指望 AI 直接给出一个完美的 Netlist。真正的价值在于,AI 帮人类排除了那些明显不可能的选项,让人类工程师把精力集中在那些真正需要创造性决策的瓶颈上。
所以,别只盯着速度看。速度是表象,决策质量的提升才是核心。如果 AI 帮你省了 10 个小时,但最后流片失败了,这效率有个屁用。工程界不讲苦劳,只讲交付。
人机接口的代际跃迁
我们再来看看人机接口。以前的 EDA 交互是什么?是 Tcl 脚本,是 GUI 点击,是层层叠叠的菜单。工程师需要花费大量时间去学习工具的语法,去适应工具的逻辑。这其实是一种“人向机器妥协”。
现在的 AI Agent,接口变成了自然语言,变成了意图识别。你告诉它:“把这个模块的功耗降低 10%,时序不能违例。”它自己去拆解任务,去调用底层工具,去调整参数。
抽象层级的提升,意味着底层复杂性的封装。封装得好是赋能,封装不好就是黑盒。
工程师最怕什么?最怕黑盒。当你不知道底层发生了什么的时候,你就失去了对系统的掌控力。以前 Tcl 脚本写错了,你知道是哪一行参数不对。现在 AI 给出的结果不理想,你很难判断是提示词的问题,是模型权重的问题,还是底层工具版本的问题。
这就提出了一个新的工程要求:可解释性。未来的 EDA 智能体,不能只给结果,必须给逻辑链。它必须告诉工程师,我为什么这么布局,我为什么这么约束。否则,这个智能体在高端芯片设计中是无法落地的。没人敢把几亿晶体管的命运交给一个无法解释的神经网络。
这背后,是信任机制的建立。信任不是靠宣传口号,是靠工程化的验证流程。我们需要在 AI 和最终输出之间,建立一道“防火墙”。这道防火墙,就是传统的规则检查加上新的 AI 评估模型。
信任是需要工程化的
说到验证,这是芯片设计里最硬的骨头。以前我们说验证占了设计周期的 70%。现在 AI 能生成代码了,能生成测试用例了,验证的压力反而更大了。为什么?因为生成代码的成本降低了,代码的数量会爆炸式增长。
代码生成越容易,验证的复杂度就越高。这是软件工程的基本定律,在芯片设计里同样适用。
AI 智能体可能会产生一些人类想不到的“怪异”逻辑。这些逻辑在功能上可能是对的,但在物理实现上可能是灾难。比如它为了优化时序,生成了一个极其复杂的路径,导致信号完整性出问题。这种问题,传统的静态时序分析(STA)未必能完全覆盖。
所以,未来的验证流程,必须是“人机协同验证”。人负责定义边界条件,定义 Corner Case,定义什么是不允许的。AI 负责在这些边界内疯狂试探,寻找极限。
这里有一个关键的概念:约束驱动。以前的约束是写在 SDC 文件里的死规定。以后的约束,应该是动态的、可学习的。AI 需要理解为什么这个约束存在。是因为物理限制?还是因为架构决策?如果 AI 理解了约束背后的物理意义,它就能在约束冲突的时候,做出更合理的权衡,而不是报错停工。
但这需要数据。需要大量的历史设计数据来训练。这就引出了一个敏感话题:数据隐私。
年轻工程师的危机与机会
很多刚入行的工程师问我:郑工,AI 会不会把我们取代了?尤其是那些整天写 Tcl 脚本,跑回归测试的初级工程师。
我的回答很直接:会,也不会。
如果你只是把写脚本当成工作,那你确实危险了。AI 写脚本比你快,还不容易犯语法错误。但如果你把脚本当成实现设计意图的手段,那你不仅安全,还会更强。
未来的工程师,核心竞争力不是掌握工具的命令,而是定义问题的能力。
以前一个资深工程师和一个初级工程师的区别,可能在于谁更熟悉工具的快捷键,谁更知道某个参数的默认值。以后这个区别会消失。区别在于,谁能更准确地描述设计目标,谁能更敏锐地察觉到 AI 给出方案中的潜在风险。
这对人才培养提出了挑战。以前新人是通过写脚本、跑流程、修 DRC 违例来积累经验的。这是一个“干中学”的过程。如果这些脏活累活都被 AI 干了,新人去哪积累经验?难道直接让他们做架构决策?这不现实。
所以,企业必须重构培训体系。不能让新人直接依赖 AI 出结果,而要让他们去 Review AI 的结果。要去问:为什么 AI 这么做?有没有更好的做法?这种“批判性使用”的能力,才是新一代工程师的基本功。
这背后,是工程教育体系的滞后。学校还在教_verilog 语法, industry 已经在谈意图驱动设计了。这个 gap,需要企业自己去填。
数据孤岛与私有化部署
最后,我们得谈谈落地的问题。EDA 厂商想把 AI 做成云服务,因为这样数据收集方便,模型迭代快。但芯片公司敢吗?大部分不敢。
芯片设计数据是核心 IP。你把未发布的芯片架构数据传到公有云上训练模型,这等于把底牌亮给竞争对手。哪怕厂商承诺数据隔离,工程上的风险依然存在。
所以,未来的 EDA 智能体,大概率是“混合部署”。基础模型在云端训练,具备通用的物理知识和电路知识。但针对具体项目的微调,必须在本地进行。甚至,推理过程也要在本地完成。
技术的先进性,必须让位于数据的安全性。这是芯片行业的底线。
这就对算力提出了要求。每个芯片设计公司,可能都需要搭建自己的本地推理集群。这会增加成本,但这是必须付出的代价。鲁棒性不仅仅体现在设计结果上,也体现在供应链的安全上。
此外,还有一个数据标准化的问题。不同公司的设计流程、命名规范、约束风格都不一样。AI 要通用,就必须面对这些非标数据。这需要行业形成新的数据交换标准。否则,每个公司都要训练自己的私有模型,成本太高,效率太低。
这背后,是行业生态的博弈。谁掌握了标准,谁就掌握了下一代 EDA 的话语权。
立场与未来
说了这么多,我的立场很明确。AI 智能体确实是 EDA 领域的下一个增长点,但它不是魔法。它不能绕过物理定律,不能消除设计中的 trade-off。它只是把工程师从重复劳动中解放出来,去处理更复杂的系统级问题。
不要神话 AI,也不要抵触 AI。把它当成一个刚入职的、聪明但缺乏经验的高级工程师。你需要给它明确的指令,需要检查它的作业,需要为它的错误负责。
芯片设计的本质,是对复杂度的管理。以前我们管理的是晶体管的复杂度,以后我们管理的是智能体的复杂度。工具变了,工程学的第一性原理没变。系统依然需要解耦合,接口依然需要标准化,流程依然需要闭环。
真正的变革,不是机器变得像人,而是人变得更像架构师。当机器承担了执行的重量,人类才能腾出手来,去触摸设计的天花板。
技术永远在迭代,但工程的责任感无法被算法替代。在这个智能体元年,记住一点:你可以把代码交给 AI,但把签字笔握在自己手里。




