Hacker News 中文摘要

RSS订阅

人工智能伦理正被刻意窄化,如同隐私权一般 -- AI Ethics is being narrowed on purpose, like privacy was

文章摘要

文章指出,AI伦理问题正被有意缩小范围,类似于隐私问题的处理方式。OpenAI虽然强调安全和伦理,但其行动更多是为了应对公众和媒体的关注,而非真正解决伦理问题。这种做法可能导致AI伦理讨论流于表面,缺乏实质性进展。

文章总结

AI伦理被故意窄化——就像隐私问题一样

近日,OpenAI在时隔许久后首次发布了一款开源语言模型。尽管这一模型早已承诺推出,但由于“安全”问题,发布时间一再推迟。OpenAI在安全和伦理方面投入了大量时间和精力,表面上,安全和伦理确实是公众关注的焦点。

然而,当人们谈论“伦理”时,他们真正关心的是现实世界中的影响:治理结构、问责机制、数据使用方式、工作岗位的流失等。换句话说,人们并不那么担心模型是否会骂人或如何处理哲学上的“电车难题”,而是更关注运行这些模型的人类及其权力和资源的集中,以及他们可能对社会造成的伤害。

这种“重新定义合法关切”的策略在科技领域并非首次使用。早在20世纪90年代,电话营销公司通过购买客户名单获取电话号码,引发了消费者的强烈反对。作为回应,企业提出了“我们从不与第三方共享您的数据”的隐私保护声明。然而,这一声明实际上掩盖了更深层次的问题:企业自身如何处理这些数据。

如今,隐私问题被重新定义为“确保非本公司人员无法访问您的数据”,而忽略了“本公司将如何处理这些数据”的核心问题。这种窄化的定义已成为行业标准,企业通过采购、合规、测试等环节确保“隐私”标准得到维护。然而,这种做法实际上是在回避公众对隐私的真正关切。

AI伦理问题与此类似。尽管企业投入大量资源讨论AI的安全性和伦理问题,但这些讨论往往集中在科幻式的思想实验上,如AI是否会陷入《黑镜》式的模拟或将世界变成回形针。这些讨论虽然有趣且能为企业带来正面宣传,但它们并非现实中的真正威胁。

AI伦理的核心问题在于:如果我们赋予企业无限的资源、政府支持和科学资源,以及包括思想和行为模式在内的所有个人数据,我们如何确保这些企业的领导者不会试图颠覆我们并掌控世界?如何确保他们站在人类的一边?

因此,AI伦理固然重要,但我们必须确保我们理解真正的问题,以便正确设置解决方案。

评论总结

评论主要围绕AI伦理的讨论展开,观点多样且涉及多个层面。以下是总结:

  1. AI伦理的焦点偏离现实问题

    • 有评论指出,AI伦理的讨论往往集中在虚构问题上,而非现实中的实际问题。
    • 引用:“AI ethics are like nuclear ethics: the incentive to break them is too powerful without every major player becoming a signatory to some agreement with consequences that have teeth.”(lr4444lr)
    • 引用:“I keep seeing 'AI ethics' being redefined to focus on fictional problems instead of real-world ones.”(idontknow_)
  2. 伦理与安全的混淆

    • 有观点认为,伦理与安全被混淆,安全只是伦理的一个子集,伦理问题远不止安全。
    • 引用:“It seems to me that this article is the one prevaricating between 'ethics' and 'safety'.”(mitthrowaway2)
    • 引用:“The problem with AI ethics, safety and to a smaller extent, privacy groups is that the priority of the work/message is not placed on the practicality of solving the problem.”(nisten)
  3. 伦理定义的模糊性与偏见

    • 评论者质疑“伦理”的定义,认为其可能被用来掩盖偏见或作为不可质疑的工具。
    • 引用:“Whose ethics? Do we get to know what the axioms of this ethics are?”(mystraline)
    • 引用:“Anytime I see discussion framed as 'ethics' my brain swaps ethics with 'rules I think are good'.”(akakajzbzbbx)
  4. 技术实践与伦理脱节

    • 有评论批评AI伦理组织缺乏技术实践能力,未能有效解决实际问题。
    • 引用:“I have yet to meet a single AI safety person that knows how to rename a file in linux.”(nisten)
    • 引用:“It's the refusal to work at the problem constructively, and get the most skilled people possible to actually make the damn benchmarks to work.”(nisten)
  5. AI伦理的立法与监管困境

    • 评论者认为,AI已经深度嵌入经济体系,立法和监管变得极为困难。
    • 引用:“The time to make any sort of rules around AI ethics has already passed, the US has AI so embedded into its economy now that any legislation with teeth is practically impossible.”(micromacrofoot)
    • 引用:“Companies and people running them are not on our side, or even humanity's side, they're on their own.”(micromacrofoot)
  6. 伦理与技术进步的矛盾

    • 有观点认为,过多的伦理限制可能阻碍AI的技术进步,低监管者可能获得更强的模型。
    • 引用:“Effectively making it so that whoever has the lowest safeguards has the most capable model.”(Workaccount2)
    • 引用:“I have wondered for a while now if it happens to be that the less safe guards and thought policing you do, the more capable and generalizable the model becomes.”(Workaccount2)

总结:评论反映了对AI伦理讨论的广泛不满,主要集中在焦点偏离现实、伦理与安全混淆、定义模糊、技术实践不足、立法困境以及伦理与技术进步的矛盾等方面。