微信扫码
添加专属顾问
我要投稿
探索AI在代码审查中的应用,从构想到快速落地的实践案例。核心内容:1. 团队对AI技术在研发流程中应用的探索原则2. 利用AI优化代码审查流程的项目进展和成果3. 行级评论方案的实施过程和关键环节拆解
年初,随着 DeepSeek
的爆火出圈,相信大家一定脑暴过各种利用 LLM
的创新应用场景。
在这场技术浪潮中,我们团队内部也在积极规划探索 AI
能在现有研发流程中带来哪些助力,但同时考虑到目前行业飞速进化的趋势,大致明确了几个探索原则:
基于以上原则,在寻找具体切入点时,我们注意到团队内部长期以来对代码审查(CR
)的规范统一性、审查深度及人力投入等方面存在改进的呼声。鉴于此,我们决定尝试利用 AI
,探索优化代码审查流程的潜力,期望在提升 CR
效率和质量的同时,也能在实践中积累 AI
应用经验。
简而言之:我们希望通过 小成本投入 的方式,利用 AI
技术优化 CR
流程并能有所沉淀。
基础功能搭建(可用阶段):
AI CR
-> 评论反馈流程3
人日流程调优优化(提升阶段):
5-7
人日提示词工程优化(深化阶段):
64 个 |
|
150+ |
|
2% (目前偏低但结合差评率,说明用户对 AI 审查结果的默认接受度尚可) |
|
4% |
关于 CR
环节的现状问题,主要是规范统一、精力投入、审查力度上,此处不再赘述。主要还原一下项目的历程,侧重问题解决和过程思考。
在初始阶段,我们首先构想如何将 AI CR
无缝集成到现有开发流程中。当时考虑了以下几个方案:
独立平台方案 | CR 通过该平台进行 |
|
报告输出方案 | MR 后为开发者提供一份 AI 审计报告 |
|
行级评论方案 | MR 界面上提供行级别的 AI 评论 |
经过评估,最终选择了行级评论方案,该方案能够提供细粒度的代码反馈,同时保持开发人员熟悉的工作流程,避免多平台切换。
基本流程:
用户提 MR → 调用 LLM → 写入 MR 评论
首先需要解决 MR
事件通知与内容获取的问题。幸运的是,GitLab
提供了完善的 API
和 webhook
机制:
webhook
配置 Merge Request Event
/projects/${id}/merge_requests/${mrId}/changes
获取到对应的 diff
内容后,我们将其解析成包含行号、改动内容等的结构化数据,使 LLM
能更好地理解上下文。
? 为什么需要将 diff
结构化?
经过上述接口,我们能拿到实际的 diff
内容。虽然这部分内容可以直接提供给 LLM
处理,但会存在明显的不确定性:
@@ -1,7 +1,7 @@
class User {
- constructor(name, age) {
+ constructor(name, age, role) {
this.name = name;
this.age = age;
+ this.role = role;
}
}
将上述 diff
直接提供给 LLM
会导致无法明确确定需要评论的行。通过结构化数据处理,我们能够明确改动对应的新旧文件行数以及相关上下文,提高 AI 分析的准确性。
{
"file_meta": {
"path": "当前文件路径",
"old_path": "原文件路径(重命名时存在)",
"lines_changed": "变更行数统计",
},
"changes": [
{
"type": "变更类型(add/delete)",
"old_line": "原文件行号(删除时存在)",
"new_line": "新文件行号(新增时存在)",
"content": "变更内容",
"context": {
"old": "当前改动上下文",
"new": "当前改动上下文"
}
}
]
}
上述已经完成了改动内容的结构化封装,接下来需要将这部分内容拼接到对应的提示词,调用大模型来生成评论。LLM
调用是核心环节,我们综合考虑成本因素,决定使用公司内部已有的飞书 Aily 平台。
Aily
)是一款全新的企业级智能应用开发平台,围绕着大语言模型(LLM
)提供 AI
技能编排、知识数据处理、效果调优和持续运营能力,让用户可以高效的开发出专业的企业级智能应用,并一键发布到飞书、Web
等多个渠道,与企业业务系统深度集成,提升企业内部业务流转和客户服务效率。所以这部分工作,主要变成了基于 Aily 的流程编排和提示词调试(完整编排流程在下方)。
提示词设置原则:
结构如下:
# 角色
你是专业的审查专家xxxx
# 审查维度及判断标准(按优先级排序)
xxx
# 输入数据格式
输入结构如下:
{
"file_meta": {
"path": "当前文件路径",
"old_path": "原文件路径(重命名时存在)",
"lines_changed": "变更行数统计",
"context": {
"old": "原文件上下文",
"new": "新文件上下文"
}
},
"changes": [
{
"type": "变更类型(add/delete)",
"old_line": "原文件行号(删除时存在)",
"new_line": "新文件行号(新增时存在)",
"content": "变更内容"
}
]
}
其中:
- old_line:content 在原文件中的行号,为null表示新增
- new_line:content 在新文件中的行号,为null表示删除
- content:新增或删除的行内容
# 输出格式
1. 格式为:
[{"file":"文件路径","lines":{"old":"原文件行号(删除时存在)","new":"新文件行号(新增时存在)"},"category":"问题分类","severity":"严重程度(critical/high/medium/low)","analysis":"结合上下文的具体技术分析(200字内)","suggestion":"可执行的改进建议(含代码示例)"}]
需要注意行号处理:
- 新增内容:`lines.old=null`, `lines.new=变更的new_line`
- 删除内容:`lines.old=变更的old_line`, `lines.new=null`
- 行号必须精确到具体变更行
2. 输出格式为 JSON 字符串数组,内部结构必须完整,必须是完整且合法的json格式,除此之外不要输出多余内容
以上提示词的设计配合结构化的输出,能让AI
生成的评论的准确性在95%
以上(这里的准确性指的是精准评论到具体的代码行,不包括实际评论内容的准确性),同时生成结构化的评论内容,方便解析和使用。
而评论写入直接采用 GitLab
提供的 API
写入即可:
/projects/${id}/merge_requests/${mrId}/discussions
用户提交 MR → webhooks 通知内部应用 → 解析diff内容 → 调用 aily 能力 → 生成 Prompt → LLM 分析 → 结构化LLM评论 结果 → 在原 MR 处提供评论
基于上述实现,第一个版本已经可以投入使用。接入非常简单:
webhook
LLM
分析AI
评论将直接显示在 MR
界面上效果如下:
0.1 版本如期上线,但正如快速迭代理念所预期的,问题也随之而来。我们迅速发现了以下核心问题:
过度评论 | |
质量不足 | |
无反馈机制 | |
规则单一 |
问题根源:
GitLab MR
的 webhook
在 MR
有任何修改时都会触发(包括修改描述、提交新 commit
、关闭、合并)High
、Medium
、Low
)全量输出,导致不重要问题也被显示解决措施:
MR
时的全量改动,后续 commit
支持增量 CR
// action 枚举,只需要处理 open 和 update 并且实际有commit提交的 操作
const actionEnum = ['open', 'update', 'close', 'reopen', 'merge', 'unmerge', 'approved', 'unapproved'];
// base_sha, start_sha, head_sha 需要从 mrChangeInfo 是为了后续 comment 的时候,使用正确的 diff 信息
{
base_sha: mrChangeInfo.data.diff_refs.base_sha,
start_sha: mrChangeInfo.data.diff_refs.start_sha,
head_sha: mrChangeInfo.data.diff_refs.head_sha,
}
# 输出要求
1. 严重程度标准:
- Critical:导致系统崩溃/数据损坏
- High:功能异常/安全漏洞
- Medium:潜在风险/代码异味
- Low:样式问题/不影响功能
问题根源:
AI
分析缺乏自我验证和纠错能力上下文优化: 提示词中携带更丰富的上下文信息
多轮 LLM
分析: LLM 评论流程增加多轮校验,渐进式深度分析
主要目的:
同时将 Aily
整体编排流程拆分,将提示词定义为以下部分:
PromptRole
(按 MR
内容动态生成)PromptBizRules
(按 MR
内容动态获取对应业务审查规则)PromptInputFormat
PromptReviewDetails
(按 MR
内容动态获取对应业务审查规则)PromptOutputFormat
PromptOutputRules
具体设置:
完整编排流程:
解决措施:
AI
评论处提供一键反馈功能AI
评论调优拓展现有编排流程,将业务规范开放到多维表格,用飞书文档来沉淀业务生成规范和定制化的审查规则。
解决措施:
Aily
平台根据业务规范动态合成提示词AI
审查标准经过两个版本的快速迭代,我们成功实现了最初的目标:以小成本投入优化代码审查流程。具体表现在:
10
人日投入,实现了64
个应用的接入,日均150+
评论,已发现 50+
有效问题GitLab API
、飞书Aily
等)快速构建MVP
思想贯穿整个开发过程经过对业界主流AI CR
实现方案的全面调研(如腾讯AICR
、字节跳动BitsAI-CR
等),我们对未来方向有了更加务实的认识:
我们发现,要构建一个企业级完整的AI CR
系统需要大量资源投入:
对于中小团队而言,投入大量资源去构建类似腾讯、字节等大厂的全面系统性价比不高。我们更倾向于:
我们观察到目前AI CR
可能的定位:
我们认为,在当前阶段, 辅助人工CR
是更务实的定位,理由是:
CR
仍有较大缺口我们注意到底层能力迭代非常快速:
IDE
(如Cursor 0.49
版本)已开始内置代码审查功能OpenAI
、Anthropic
等不断推出更强大的编程辅助功能因此,我们计划:
IDE
插件)协同合作AI
辅助代码审查是AI
融入开发流程的一个切入点,但绝非终点。通过这个项目,我们不仅验证了AI
在特定场景下的实用价值,更积累了宝贵的实践经验。正如我们的核心原则所示,技术发展迭代太快,重要的是保持行动力,不断尝试,在实践中找到最适合自己团队的应用方式。
在未来,我们将继续秉持"小投入、快迭代、重实效"的理念,探索AI与研发流程深度融合的更多可能性。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-28
Trae 新版本增加 MCP、Agent、Rules 等多项功能,立即体验
2025-04-28
通用LLM插件系统——简化工具集成,提升2025年AI的灵活性
2025-04-27
演讲实录:中小企业如何快速构建AI应用?
2025-04-27
Cherry Studio v1.2.9:新增多个MCP特性
2025-04-27
为什么新手比专家更想做垂直领域SFT微调?
2025-04-27
使用MCP进行AI集成的6大理由
2025-04-27
大模型微调技术全景解析:从理论到企业级实践(Python实战增强版)
2025-04-27
主流 Embedding 模型对比
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01
2025-04-27
2025-04-27
2025-04-23
2025-04-20
2025-04-01
2025-03-31
2025-03-20
2025-03-16