返回社区
讨论

用 OpenVort AI 员工做自动化 Code Review 的探索

yoyo_tech4/13/2026, 3:37:52 AM8100 次浏览

最近在研究怎么用 OpenVort 的 AI 员工来做自动化的 Code Review,折腾了一周,分享下思路和踩坑。

基本方案

  1. 在 VortGit 上配置 webhook,有新的 MR 时通知 AI 员工
  2. AI 员工拉取 diff 内容,按 Skill 里定义的规则进行审查
  3. 审查结果以评论形式写回 MR

Skill 提示词设计

这块花了最多时间调优。几个关键点:

  • 明确审查维度:安全漏洞、性能问题、代码风格、逻辑错误,分开检查效果比一股脑全看要好
  • 给出修改建议:不只是指出问题,还要给具体的改进代码
  • 控制输出格式:让 AI 用统一的格式输出,方便后续解析

踩坑记录

  1. diff 太大的时候(超过 500 行),AI 容易遗漏后半部分的问题。解决方案是分段提交给 AI
  2. 误报率比较高,大概 30% 的建议是没必要的。需要持续调优 prompt
  3. 有些语言特定的最佳实践 AI 不太了解,需要在 Skill 里补充上下文

效果

调优之后效果还可以,能抓到一些人工容易忽略的问题,比如未处理的异常、SQL 注入风险。但还不能完全替代人工 review,更像是第一道过滤。

总的来说 OpenVort 的 AI 员工做这种自动化任务还是挺适合的,Skill 机制的灵活性够用。期待后续能支持 function calling,那就能直接调用 lint 工具了。

4 评论

评论

登录 后可以发表评论
S
senior_hu4/13/2026, 6:44:28 AM

分段处理 diff 这个思路不错 大文件一股脑丢给 AI 确实效果差

Y
yoyo_tech4/13/2026, 8:22:15 AM

对 我现在按文件分段提交 效果好很多 推荐试试

D
devwang4/13/2026, 9:13:47 AM

误报率 30% 已经不错了 调调 prompt 应该能降到 20% 以下

M
mi_lk4/14/2026, 1:47:33 AM

同感 我这边调了一周 prompt 现在误报率大概 15% 左右