
你好,我是郑工长。
昨天,一个做测试的朋友跟我吐槽:上了 AI 测试工具,效率没提上去,返工率反而更高了。
我问他:"你们怎么用的?"
他说:"就录脚本啊,AI 不是能自动生成吗?"
问题就出在这儿。
我见过太多团队在自动化测试上栽跟头。以前是手工写脚本,UI 一变,脚本全废;现在有了 Testim、testRigor 这类 AI 工具,核心逻辑变了:从"写代码"变成了"下指令"。
但很多人思路没转过来,把 AI 当魔法用——直接开始录,指望它自己懂你要测什么。
大错特错。
AI 测试的本质,不是"录制",是"定义预期"。你定义得越清晰,脚本鲁棒性越强;你定义得越模糊,返工率越高。
今天我把这套三步走战略摊开来讲,这是我在多个项目里验证过的,能帮你把测试脚本的稳定性提上来。
80% 的人死在第一步
很多人拿到 AI 测试工具,第一反应是:"赶紧录脚本,省时间。"
然后呢?脚本跑一次就废,UI 稍微变一点,元素就找不到了。
为什么?地基没打牢。
环境配置不是走过场
第一步:创建项目空间
不要把所有测试用例塞进一个默认项目。按业务模块划分空间,比如"支付模块"、"用户中心"、"订单流程"。
这叫解耦合。后期维护能省一半力气。
我见过最离谱的案例:一个团队 300 多个测试用例全在一个项目里,改个登录页,整个脚本库全红。为什么?耦合太紧,牵一发而动全身。
第二步:密钥权限最小化
在平台生成 API Key 后,立刻设置权限:只给"执行"和"读取",别给"删除"。
划重点:我见过太多次误操作导致脚本库清空,血的教训。
第三步:浏览器插件安装
这是 AI 工具的眼睛。安装后重启浏览器,确保插件图标亮起,状态显示为"Connected"。
别跳过这一步。插件没激活,AI 就是瞎子。
用自然语言"定义预期",不是"录制动作"
这是最关键的一步,也是 AI 测试的核心竞争力。
你不需要写 Selenium 代码,只需要用人类语言告诉 AI 你要做什么。但关键在于:怎么说清楚。
错误示范 vs 正确示范
错误示范:
"点击登录按钮。"
太模糊。按钮变了怎么办?文本改了怎么办?
正确示范:
"在用户名输入框(placeholder 为'请输入邮箱')填入'test_user',在密码框填入'123456',然后点击包含'登录'文本的按钮。"
AI 会基于语义理解生成定位策略。它不只是匹配 XPath,还会结合文本、位置、属性等多维度特征。
指令设计的三个原则
1. 元素定位要唯一
不要说"点击第二个按钮",要说"点击文本为'提交订单'的按钮"。
2. 预期结果要明确
不要说"登录成功",要说"页面跳转到/dashboard,且显示欢迎语'欢迎回来,test_user'"。
3. 异常处理要提前
在指令里加上:"如果元素加载超时 10 秒,重试 3 次,仍失败则截图并标记为'阻塞性问题'。"
说白了,AI 不是替你思考,是替你执行。如果你的指令逻辑本身有歧义,生成的脚本照样会 fail。
验证与自愈:脚本上线前的最后一道关
脚本生成了不代表能上线。工程学的核心是验证,不是实现。
首次运行:看日志,别只看结果
运行生成的脚本,观察执行日志。
要看什么:
- 每一步的耗时(超过 5 秒的要优化)
- 元素匹配的相似度评分(低于 80% 的要人工介入)
- 截图(确认 AI 找对了元素)
自愈能力测试:故意改 UI
这是很多人忽略的一步。
怎么做:
- 修改被测页面的某个元素(比如改按钮文本、换图标)
- 重新运行脚本
- 看 AI 能不能自动识别并继续执行
如果脚本直接失败,说明你的指令定义不够鲁棒,需要增加定位维度。
集成 CI/CD:自动化不是半自动
最后一步,把脚本集成到 CI/CD 流水线。
关键点:
- 设置触发条件(代码提交后自动触发)
- 配置通知渠道(失败时飞书/钉钉通知)
- 定义通过标准(90% 以上用例通过才允许上线)
别搞错了,自动化测试的目标不是"能跑",是"持续跑"。
核心要点
- 环境配置是地基:按模块划分空间,密钥权限最小化
- 指令定义是核心:用自然语言清晰定义预期,不是录制动作
- 验证自愈是关键:故意改 UI 测试鲁棒性,集成 CI/CD 持续运行
AI 测试工具确实能提效,但前提是你得用对思路。
工具再智能,也得人类把控逻辑。
合理设计,才能真正减负;盲目依赖,只会增加返工。



