讨论
用 OpenVort AI 员工做自动化 Code Review 的探索
yoyo_tech4/13/2026, 3:37:52 AM8100 次浏览
最近在研究怎么用 OpenVort 的 AI 员工来做自动化的 Code Review,折腾了一周,分享下思路和踩坑。
基本方案
- 在 VortGit 上配置 webhook,有新的 MR 时通知 AI 员工
- AI 员工拉取 diff 内容,按 Skill 里定义的规则进行审查
- 审查结果以评论形式写回 MR
Skill 提示词设计
这块花了最多时间调优。几个关键点:
- 明确审查维度:安全漏洞、性能问题、代码风格、逻辑错误,分开检查效果比一股脑全看要好
- 给出修改建议:不只是指出问题,还要给具体的改进代码
- 控制输出格式:让 AI 用统一的格式输出,方便后续解析
踩坑记录
- diff 太大的时候(超过 500 行),AI 容易遗漏后半部分的问题。解决方案是分段提交给 AI
- 误报率比较高,大概 30% 的建议是没必要的。需要持续调优 prompt
- 有些语言特定的最佳实践 AI 不太了解,需要在 Skill 里补充上下文
效果
调优之后效果还可以,能抓到一些人工容易忽略的问题,比如未处理的异常、SQL 注入风险。但还不能完全替代人工 review,更像是第一道过滤。
总的来说 OpenVort 的 AI 员工做这种自动化任务还是挺适合的,Skill 机制的灵活性够用。期待后续能支持 function calling,那就能直接调用 lint 工具了。
4 评论