Rust团队近日发布关于大语言模型(LLM)使用的政策型文档,其目标为规范在该项目代码仓库中使用大语言模型,它明确划定了允许与禁止的边界。
此文档起源于Zulip上讨论区的内容基础,此讨论版块已经超过3000条消息。
Rust团队在讨论区中将范围圈定在政策上,它明确标记了几个超范围的主题:大语言模型对社会&经济的长期影响、对环境的影响、大语言模型输出的版权状态、对使用大语言模型人士的道德评判。
政策放在 Forge 上,它是活文档,并不是封死的RFC。它会在 CONTRIBUTING.md 以及 rustc 和 std 开发指南里加链接。贡献者需要定期查看最新版本,因为规则可能随实践调整。
这份政策为什么需要
很多人士发现,由大语言模型生成的代码和文字,阅读起来并不让人很愉快。它是人们学习与探索的重要辅助工具,但Rust仓库中正被由大语言模型生成的大量低质量PR所充斥。
因此,制定该政策让审核工作更容易,不需要再麻烦,去逐个案例进行处理。
该政策文档明确指出,这不是关于大语言模型是好是坏的辨论,也不是关于它长期影响的辨论,它只是描述清晰了 rust-lang/rust未来的政策。
一些被禁止的用途
Rust大语言模型规约明确禁止了一些有效的LLM语法。团队倾向于更多限制而不是禁止不足,这表示在Rust编译器或标准库的工作中,使用AI生成代码以及文字都会受到严格限制。
政策制定时参考了其他开源项目的先例。一些项目选择完全禁止AI生成的提交,比如 postmarketOS、Zig、Servo、QEMU。另一些项目允许AI辅助但要求监督,比如 SciPy、LLVM、Blender、Linux 内核、Firefox、Ghostty、Fedora、curl、Linux 基金会。Rust 核心仓库走了中间路线——不禁止AI工具本身,但要求使用的人对代码负责。
用户反馈指南
Rust规范的制定者,意识到文档中的一部分内容可以会让一些人不高兴。他们也发出请求或倡议请开发者和用户思考:你的具体改进是否能更容易的管理?是否需要立即解决你的担扰,还在在后续时刻解决?考虑不创建政策规范的成本是什么?如果你为团队考量,具体哪些工作流程会受到影响?你能接受此种中断吗?
结语
Rust的大语言模型政策的目的是在不使用AI帮助的情况下进行实际代码贡献,同时允许将AI用于学习、发现问题或在审核时提供帮助。这反映了 Rust 团队对代码质量和社区规范的重视。
编辑:手扶拖拉斯基
参考:
https://github.com/rust-lang/rust-forge/pull/1040
本篇文章为 @ 场长 创作并授权 21CTO 发布,未经许可,请勿转载。
内容授权事宜请您联系 webmaster@21cto.com或关注 21CTO 微信公众号。
该文观点仅代表作者本人,21CTO 平台仅提供信息存储空间服务。
请扫描二维码,使用微信支付哦。