Hacker News 中文摘要

RSS订阅

Ghostty的AI政策 -- Ghostty's AI Policy

文章摘要

该文档是ghostty项目关于AI使用的政策说明,主要涉及GitHub平台提供的AI开发工具(如Copilot、Spark等)、开发者工作流和安全功能,但具体政策内容未在摘要中体现。

文章总结

以下是经过编辑整理后的中文版本,保留了核心内容并删除了无关的导航和重复信息:


Ghostty项目AI使用政策

核心原则

  1. 强制披露机制
    所有AI辅助内容必须明确说明使用的工具(如Claude Code、Cursor等)及AI参与程度。

  2. PR提交限制

    • AI生成的PR仅限针对已受理的Issue,未关联已受理Issue的PR将被关闭
    • 疑似未披露的AI生成PR将被直接关闭
    • 非受理Issue的代码建议应通过讨论区提交
  3. 质量验证要求
    AI生成代码必须经过人工完整测试,禁止提交未经实际环境验证的假设性代码。

  4. 非代码内容规范

    • 问题讨论允许AI辅助但需人工全流程审核编辑
    • 严禁使用AI生成艺术/图像/视频/音频等多媒体内容
  5. 违规处理
    滥用AI工具者将被公开禁言并标注,项目方保留公开批评权利。

特别说明

  • 维护者豁免权:核心维护者可自主使用AI工具
  • 政策初衷:针对AI使用者的低质量输出,非反对AI技术本身
  • 项目立场:Ghostty开发过程中实际采用AI辅助,但要求使用者承担质量责任

人文声明

"请记住Ghostty由人类维护。每个交互节点都是人与人的沟通,提交低质量AI内容是对维护者的不尊重。当前AI驾驶者的平均水平尚未达到可靠程度,故需制定严格规则保护社区。"

(全文共精简保留原始政策69行中的核心条款,去除重复的页眉页脚、导航菜单等非政策内容约85%)

评论总结

以下是评论内容的总结:

支持AI使用政策

  1. 平衡的政策:评论认为该AI使用政策全面且平衡,强调了人类思考、测试和重写的重要性。

    • "Covers most of the points I'm sure many of us have experienced here while developing with AI." (arjunbajaj)
    • "A well crafted policy that, I think, will be adopted by many OSS." (cranium)
  2. 人类验证的必要性:AI生成的代码必须经过人类验证,这是最低要求。

    • "Pull requests created by AI must have been fully verified with human use." (alansaber)
    • "AI generated code does not substitute human thinking, testing, and clean up/rewrite." (arjunbajaj)

对AI生成代码的担忧

  1. 代码质量低下:LLM生成的代码可能质量低劣,尤其是训练数据有限时。

    • "with limited training data that llm generated code must be atrocious" (cxrpx)
    • "Adding indirection where it does not make sense is a big issue I’ve noticed LLMs make." (arjunbajaj)
  2. 信任问题:AI可能削弱对远程贡献和新代码的信任,尤其是对不熟悉的贡献者。

    • "AI is undermining trust in remote contributions, and in new code." (vegabook)
    • "The trust barrier is getting higher." (vegabook)

责任与执行

  1. 责任归属:无论代码如何生成,贡献者应对其提交的内容负责。

    • "I don’t care how people come with the code they create, but I hold them responsible for what they try to merge." (epolanski)
    • "If your teammates are producing slop, that’s a human and professional problem." (epolanski)
  2. 政策执行难度:好的AI使用与手动编码难以区分,政策执行可能困难。

    • "This policy is strictly unenforceable because good AI use is indistinguishable from good manual coding." (antirez)
    • "I believe in experienced maintainers that are able to tell if a change looks sensible or not." (antirez)

其他观点

  1. 版权问题:AI生成内容的版权状态尚未明确,可能带来法律风险。

    • "The copyright status of AI generated text is not settled law." (nutjob2)
    • "Generative AI is not fair use because its clearly substitutive." (nutjob2)
  2. 贡献者行为:部分贡献者缺乏羞耻心,提交低质量代码。

    • "The biggest surprise to me is how little shame people apparently have." (Version467)
    • "Some people have really no shame into overloading you with AI generated shit." (Lucasoato)
  3. 媒体与代码的区别:政策区分AI生成的媒体和文本/代码,但这一区分可能存在问题。

    • "It’s naive to think that they didn’t do the same with text and code." (rikschennink)

解决方案建议

  1. 限制外部贡献:部分项目选择暂停外部贡献以避免低质量提交。

    • "Another project simply paused external contributions entirely." (kanzure)
  2. 捐赠AI积分:建议捐赠AI积分而非输出内容,以提高质量。

    • "It would be better to donate credits, not outputs." (kanzure)

总结:评论中既有对AI使用政策的支持,也有对代码质量和信任问题的担忧,同时提出了责任归属、版权风险及解决方案的讨论。