微软 GitHub 推出跨模型 AI 审查:Claude Sonnet 4.6 搭配 GPT-5.4,弥补 74.7% 性能差距 - 果核剥壳

4 月 8 日消息,微软 GitHub 官方于 4 月 6 日发布博文,宣布为其 Copilot CLI 推出实验性功能 Rubber Duck,引入跨模型家族的“第二意见”审查机制,让 AI 性能提升接近 75%。

援引博文介绍,在代码规划阶段,当前编程智能体的早期决策错误容易层层累积,而单一模型的自我审查会受限于自身的训练偏差与盲点。而 Rubber Duck 功能就是引入异构模型作为独立审查者,提供差异化视角以挖掘潜在错误。

微软 GitHub 推出跨模型 AI 审查:Claude Sonnet 4.6 搭配 GPT-5.4,弥补 74.7% 性能差距

该功能采用跨家族模型组合策略,用户选择 Claude 系列模型作为主控后,Rubber Duck 将调用 GPT-5.4 进行审查。其核心任务是检查智能体工作,输出高价值关注点清单,包括被遗漏的细节、值得质疑的假设及边缘案例。

博文进一步通过 SWE-Bench Pro 基准测试评估,基于 Claude Sonnet 4.6 和 Opus 4.6 单独运行的性能差距对比,发现 Sonnet 4.6 搭配 Rubber Duck 后,成功弥补 74.7% 的性能差距。

在涉及 3 个以上文件或超过 70 步的困难任务中,得分比基线高出 3.8%。实际案例显示,它能有效挖掘架构逻辑漏洞、循环覆盖错误及跨文件冲突等深层问题。

Rubber Duck 支持主动、被动及用户触发三种模式。系统会在制定计划后、复杂实现后及测试编写后三个关键检查点自动寻求审查,也可在陷入循环时被动触发。该功能为确保过程透明,用户也可随时请求审查,Copilot 将展示反馈内容与修改依据。

目前该功能已在实验模式下线。用户安装 GitHub Copilot CLI 并运行 /experimental 命令即可启用。启用后,选择 Claude 模型并开通 GPT-5.4 访问权限即可体验。

如果您喜欢本站,点击这儿不花一分钱捐赠本站

这些信息可能会帮助到你: 下载帮助 | 报毒说明 | 进站必看

修改版本安卓软件,加群提示为修改者自留,非本站信息,注意鉴别

(0)
上一篇 3小时前
下一篇 2小时前

相关推荐

发表回复

评论问题之前,点击我,能帮你解决大部分问题

您的电子邮箱地址不会被公开。 必填项已用*标注