17611538698
info@21cto.com

GitHub 正考虑为 pull request 设置终止开关,以阻止 AI 行为

动态 0 17 1天前
GitHub Copilot update stops AI model from revealing secrets
GitHub 是微软旗下著名的源代码托管平台,是它推广了人工智能辅助软件开发。
而如今,GitHub 对其当初对 Copilot 的迷恋却感到有些“后悔”。
就在上周,GitHub 产品经理 Camilla Moraes 在社区发起讨论,希望解决“影响开源社区的一个关键问题,低质量贡献的数量不断增加,给维护者带来了巨大的运营挑战”。
人工智能的弊端已经显现,GitHub 希望得到开发者社区的帮助,以解决这一混乱局面。
Moraes 这样写道:
“我们一直听到你们说,你们花费大量时间来审查不符合项目质量标准的贡献,原因有很多——它们并不遵守项目指南,经常在提交后不久就被放弃,而且通常是人工智能生成的。”
伴随着人工智能不断重塑软件开发工作流程与开源协作的本质,我想让大家知道,我们正在积极研究这个问题,并制定短期和长期的战略解决方案。”
Moraes 提到,GitHub正在预备多种方案。
这些方案包括:允许维护者完全禁用pull request 拉取请求,或将拉取请求限制在项目协作者范围内;允许从界面删除拉取请求(以避免查看由AI生成的垃圾数据);更精细的拉取请求创建和审核权限设置;可能是基于AI的分类工具;以及用于表明何时使用AI工具的透明度/归属机制。
多位参与讨论的开发者也都确认,处理人工智能生成的代码和评论已成为一个紧迫的问题。
根据Voiceflow 云基础设施负责人兼Genkit核心团队成员Xavier Portilla Edo称,“使用 AI 创建的 10 个 PR 中只有 1 个是合法的,符合打开该 PR 所需的标准。”
其他开源项目一直在努力应对过去两年来人工智能生成的大量低质量错误报告。
cURL的创始人兼首席开发者Daniel Stenber与Python 安全开发者 Seth Larson都公开反对低质量人工智能生成的错误报告带来的维护负担。
Stenberg 也同时承认,如果使用得当,人工智能生成的错误报告确实有用,但 cURL 项目还是最终关闭了其错误赏金计划,以消除提交低质量错误报告(无论是否由人工智能生成)的动机。
微软 Azure 容器团队的软件工程师、Containerd 的 Runwasi 项目和 SpinKube 的维护者周嘉晓(Joe Zhou)详细回应了 Moraes 关于 AI 代码提交如何影响开源维护者的问题。
他说:“我们举行了一次内部会议来讨论 Copilot,会上有人讨论说,维护人员感到左右为难,一方面是如今严格的审查要求(对发布的所有内容都要逐行理解),另一方面是未来由智能体/人工智能生成的代码使得这种模式越来越难以为继。”
周嘉晓将这些问题总结如下:
评审信任模型已失效:评审人员不能再假定作者理解或编写了他们提交的代码。
AI 生成的 PR 结构上可能看起来“没问题”,但逻辑上可能存在错误、不安全,或者与审核人员不完全了解的系统进行交互。
逐行审查对于已发布的代码仍然是强制性的,但对于大型 AI 辅助或智能 PR 来说,这种方法无法扩展。
维护者不愿批准他们不完全理解的 PR,但人工智能使得在缺乏深入理解的情况下提交大型更改变得容易。
认知负荷增加:审阅者现在必须同时评估代码和作者是否理解代码。
审查负担比人工智能出现之前更高,而不是更低。
Mozilla.ai 的机器学习工程师 Nathan Brake 这样指出,当 AI 执行传统上能获得认可的编码工作,而贡献者只是撰写问题描述时,开源社区需要想办法保持社区参与的积极性。
“在我看来,很多开源软件都面临着这样的风险。我们需要找到一种方法来鼓励知识共享,以保持开源软件和 GitHub 的独特之处:社区,”他提到了Abby Cabunoc Mayes最近在 FOSDEM 上发表的关于此问题的演讲。
GoCD的主要维护者 Chad Wilson 预计,OpenClaw 和 Moltbook所释放的 AI 代理将使情况变得更加糟糕。
周二,他在该帖子中表示,他已经处理过一个与文档相关的拉取请求,但在花费大量时间审查后才意识到它是“看似合理的胡说八道”。
对于其他人认可的人工智能信息披露要求,他表示,需要注意的风险在于,如果没有办法轻易分辨一个人是在与人类还是人工智能机器人互动,开源社会的契约就会被打破。
“我通常乐于帮助对问题感兴趣的人,并本着社会编码的精神引导他们做出贡献或找到解决方案,”他写道。“但是,当LLM的使用缺乏广泛的信息披露,且自动化程度越来越高时,这基本上就把像我这样的人变成了不知情的AI提示者。这太疯狂了,并且正在导致社会信任的严重丧失。”
GitHub 产品经理 Matthew Isabel发表声明称,拉取请求的质量而非 AI 的作者身份才是此次讨论的关键因素。
她这样说:“我们目前关注的重点是解决人工智能加剧的PR数量问题。人工智能降低了参与开源的门槛,同时也提高了可构建项目的范围和速度。因此,维护者需要审查的PR数量比以往任何时候都多。这给围绕阅读和评论每个提交内容而构建的工作流程带来了压力。”
她同时表示,维护者需要新的工具和工作流程,GitHub 正在积极与开源社区合作,以帮助更好实现这一点。

作者:洛逸

评论

我要赞赏作者

请扫描二维码,使用微信支付哦。

分享到微信