永远不要让AI直接碰到密钥
这应该是AI时代,运维的第一安全原则
让 AI 动动嘴就完成复杂运维, 这很诱人,但也很危险。
AI Agent 很强大, 但它本质上是个什么都信的“傻白甜”, 你敢把 root 密码直接告诉它吗?
所以,必须在它和核心系统之间, 加上一个“不信任中间层”,或者叫“安全沙箱”。
它的原则只有一个:
👉 AI Agent 只能“下指令”,不能“拿钥匙”
AI 说“帮我查日志”, 中间层自己去开门、取东西,再把结果递给 AI。 全程 AI 碰不到任何凭证。
这背后是我们搞工程的永恒定律: 在高权限系统中,可控性永远大于便利性。
所以,所有想做 AIOps 的团队, 都应该把 MCP 架构作为安全设计基准。
别把整个保险箱都交给 AI, 我们只利用它的“大脑”,就够了。