Hacker News 中文摘要

RSS订阅

LLVM AI工具政策:人在循环中 -- LLVM AI tool policy: human in the loop

文章摘要

LLVM社区拟制定AI工具使用政策,要求贡献者必须理解并审核AI生成内容,能够回答相关问题,禁止将验证工作推给维护者。政策强调"人在循环"原则,确保贡献者能解释其贡献内容,避免出现"AI生成我不懂"的情况。多数开发者支持使用AI提升效率,但需平衡生产力与代码质量保障。

文章总结

以下是经过编辑整理后的中文内容,重点保留了政策核心内容与关键细节:


LLVM项目AI工具使用政策草案:坚持"人工参与"原则

政策核心
LLVM项目允许贡献者使用任何工具辅助创作,但必须确保人工全程参与。贡献者需自行审查所有AI生成内容,并能够在代码审查期间回答相关问题。禁止将验证工作转嫁给维护者,杜绝出现"我不知道,这是AI生成的"的情况。

关键要求
1. 人工审查义务
- 提交前必须逐行检查AI生成的代码/文本 - 需确保贡献质量值得消耗维护者有限的审查时间 - 必须能解释贡献内容的实现细节

  1. 透明度规范

    • 包含大量工具生成内容时需明确标注(如在PR描述或提交信息中添加"Assisted-by: <工具名>")
    • 禁止完全自动化代理(如GitHub的@claude机器人)
  2. 新人引导机制

    • 建议新人从小型贡献开始,逐步建立理解能力
    • 项目将自动向新贡献者的PR发送欢迎说明,鼓励维护者投入时间指导

政策背景
该政策针对"提取式贡献"(Extractive Contributions)问题——即审查成本超过项目收益的贡献。引用Nadia Eghbal《Working in Public》的观点,项目需区分: - 提取式贡献:审查成本 > 项目收益(如复杂难审的PR) - 非提取式贡献:项目收益 ≥ 审查成本

违规处理
维护者可采取以下措施: 1. 回复标准化提示:"此PR疑似提取式贡献,请说明其项目价值..." 2. 添加extractive标签 3. 对未改善的案例移交平台管理员锁定讨论

版权声明
使用AI工具生成的代码仍需遵守版权政策,贡献者需确保: - 拥有代码版权(个人/雇主/合作者持有) - 未包含受版权保护的再生内容

参考案例
- 含Alive2验证的PR:示例链接
- 经人工核验的生成文档:讨论帖

制定依据
参考了Fedora/Rust等社区政策,以及2025年METR关于AI对开源开发者效率影响的研究报告。

(注:删减了原讨论帖中的互动性内容及部分重复的政策解释,保留了可操作条款和核心理论框架)

评论总结

以下是评论内容的总结:

支持政策的主要观点

  1. 减少低质量贡献:多位评论者认为该政策能有效减少由AI生成的、未经理解的"slop"代码贡献,减轻维护者负担。

    • "It's more work for the maintainer to review all this mess." (vjay15)
    • "I am so exhausted by reviewing the AI slop from other 'developers'." (mberning)
  2. 开发者应承担责任:强调开发者需要理解并验证自己的代码,无论是否使用AI工具。

    • "You have to stand behind your work...I won’t take 'The AI did it' as an excuse." (Negitivefrags)
    • "As a developer, you're not only responsible for contributing code. But verifying that it works." (jdlyga)

对政策的改进建议

  1. 标题修改建议:部分评论认为原标题具有误导性,建议更中立地反映政策内容。

    • "The title should be changed to 'LLVM AI tool policy: human in the loop'." (jonas21)
    • "The current title...is an entirely different discussion." (bryanhogan)
  2. 沟通方式优化:建议对违规回复使用更友好、清晰的表述。

    • "the first level stock text should be easier for the outside contributor to understand" (looneysquash)

关于AI工具的讨论

  1. AI工具的潜在价值:有评论指出自动审查工具可能提供有价值的建议,但需要谨慎使用。

    • "At my company we have...review agents available. Both frequently raise legitimate points." (jfreds)
  2. AI放大认知偏差:批评AI助长开发者的过度自信,导致代码质量下降。

    • "AI usage is like a turbo-charger for the Dunning–Kruger effect" (mmsc)
    • "developers were once forced to pause, investigate, and understand" (mmsc)

其他相关观点

  1. 版权问题担忧:提到AI生成代码可能带来的版权风险。

    • "proving the negative, i.e. the code is not copyrighted is almost impossible" (willtemperley)
  2. 执行效果质疑:担心政策可能无法阻止不良行为者。

    • "I'd be surprised if the bad apples will read the policy before spamming their 'help'." (yxhuvud)