Hacker News 中文摘要

RSS订阅

Copilot破坏审计日志,但微软未告知客户 -- Copilot broke audit logs, but Microsoft won't tell customers

文章摘要

微软的AI产品Copilot在访问文件时存在漏洞,导致审计日志无法记录相关操作,存在安全隐患。尽管微软已修复该问题并将其列为“重要”漏洞,但未通知客户或公开此事,导致审计日志不准确,影响安全和法律合规性。

文章总结

标题:Copilot破坏了你的审计日志,但微软不会告诉你

主要内容:

微软正在全力投入人工智能领域,其旗舰AI产品Copilot(及其各种形式)允许用户在日常工作中使用AI与微软服务互动并执行任务。然而,这也带来了新的安全问题。

作者Zack Korman在2025年7月4日发现了一个M365 Copilot的问题:有时Copilot会访问文件并返回信息,但审计日志中并未记录这一行为。进一步测试后,他发现只需要求Copilot以这种方式操作,它就会照做,从而使得访问文件不留痕迹。鉴于这对安全和法律合规性带来的问题,他立即通过微软的安全响应中心(MSRC)报告了这一问题。

尽管微软提供了关于报告漏洞的明确指南,但他们在处理此问题时并未遵循该指南。整个过程混乱不堪。虽然微软最终修复了问题,并将其归类为“重要”漏洞,但他们决定不通知客户或公开此事。这意味着你的审计日志可能不准确,而微软并不打算告诉你。

文章分为三部分:第一部分解释了Copilot的漏洞及其可能引发的问题;第二部分概述了微软处理此案的方式;第三部分讨论了微软选择不公开此信息的决定,以及作者认为这对微软客户造成了巨大损害。

漏洞详情:Copilot与审计日志

正常情况下,如果你要求M365 Copilot总结一个文件,它会提供摘要,并且审计日志会显示Copilot代表你访问了该文件。然而,如果你要求Copilot不提供文件链接,审计日志将为空。这使得恶意内部人员可以轻松避免检测。

作者在测试Pistachio开发的功能时偶然发现了这一问题,表明这种情况可能无意中发生。因此,如果你的组织使用M365 Copilot,你的审计日志可能不准确。

MSRC的问题

作者首次向微软报告漏洞,最初对流程感到满意。然而,实际情况并未按计划进行。微软在未通知作者的情况下修复了问题,并在作者询问时未能提供明确解释。最终,微软告知作者漏洞被归类为“重要”而非“关键”,因此不会发布CVE编号。

微软选择沉默

微软决定不公开此漏洞,也不通知客户。作者认为这是错误的,因为该漏洞非常容易触发,可能无意中发生。许多组织依赖审计日志来检测、调查和响应事件,甚至在某些法律诉讼中作为重要证据。微软的这一决定引发了对其是否选择性地掩盖其他问题的严重质疑。

作者简介

Zack Korman是Pistachio的首席技术官,撰写关于产品和技术开发以及他在网络安全领域的经验的文章。在加入Pistachio之前,他曾是挪威一家大型媒体公司的技术和产品总监。

评论总结

  1. 关于CVE(通用漏洞披露)的讨论

    • 观点:任何人都可以提交CVE,以迫使微软回应。
    • 引用:
      • "Generally speaking, anyone can file a CVE. Go file one yourself and force their response."(“一般来说,任何人都可以提交CVE。自己去提交一个,迫使微软回应。”)
      • "This blogpost puts forth reasonably compelling evidence."(“这篇博客提供了相当有说服力的证据。”)
  2. 对LLM(大语言模型)管理日志的担忧

    • 观点:直接依赖LLM管理审计/活动日志存在诸多风险。
    • 引用:
      • "Hard to count the number of things that can go wrong by relying directly on an LLM to manage audit/activity/etc. logs."(“直接依赖LLM管理审计/活动日志,可能出错的地方数不胜数。”)
      • "What was their bug fix? Shadow prompts?"(“他们的修复措施是什么?影子提示?”)
  3. 对技术过度炒空的批评

    • 观点:企业过度夸大未成熟技术的能力,可能导致泡沫破裂。
    • 引用:
      • "Hardly have I ever seen corporate incentives so aligned to overhype the capabilities of a technology while it being so raw and unpolished as this one."(“我很少看到企业如此一致地夸大一项未成熟技术的能力。”)
      • "The bubble bursting will be epic."(“泡沫破裂将会是史诗级的。”)
  4. 对Copilot权限的质疑

    • 观点:Copilot以特权用户身份运行,可能绕过审计,这令人担忧。
    • 引用:
      • "Wait, copilot operates as some privileged user (that can bypass audit?), not as you (or better, you with some restrictions)."(“等等,Copilot以特权用户身份运行(可能绕过审计?),而不是以你(或你加一些限制)的身份。”)
      • "That can’t be right, can it?"(“这不可能吧?”)
  5. 对微软强制推广Copilot的不满

    • 观点:微软将Copilot强行集成到各种产品中,导致用户体验下降。
    • 引用:
      • "I am so tired of Microsoft cramming Copilot into everything."(“我受够了微软把Copilot塞进所有产品。”)
      • "Every VSCode update I feel like I have to turn off Copilot in some new way."(“每次VSCode更新,我都觉得必须以新的方式关闭Copilot。”)
  6. 对AI生成内容准确性的怀疑

    • 观点:LLM可能并未实际访问数据,而是编造内容。
    • 引用:
      • "are they even sure that the AI even accessed the content that second time? LLMs are really good and making up shit."(“他们能确定AI第二次真的访问了内容吗?LLM非常擅长编造内容。”)
      • "Gemini is especially bad like this."(“Gemini在这方面尤其糟糕。”)
  7. 对AI引发恐慌的评论

    • 观点:AI引发的恐慌可能比最初想象的更广泛。
    • 引用:
      • "AI induced hysteria is probably wider spread than initially thought, these people are absolutely insane."(“AI引发的恐慌可能比最初想象的更广泛,这些人简直疯了。”)
  8. 对HIPAA合规性的担忧

    • 观点:Copilot可能不符合HIPAA(健康保险可携性和责任法案)要求。
    • 引用:
      • "This seems like a five alarm fire for HIPPA, is there something I’m missing?"(“这对HIPAA来说似乎是五级警报,我是不是漏掉了什么?”)
      • "A better title would be: Microsoft Copilot isn't HIPAA compliant."(“更好的标题应该是:微软Copilot不符合HIPAA要求。”)