文章摘要
Anthropic宣布将改变其Claude聊天机器人的隐私政策,从即日起将使用用户聊天记录和编码会话数据来训练AI模型,除非用户在9月28日前主动选择退出。这一政策适用于所有Claude用户,包括免费、Pro和Max订阅计划用户。用户同意后,数据将保留五年而非之前的30天。隐私倡导者批评了界面设计,认为“接受”按钮过于显眼,而退出选项则较为隐蔽。
文章总结
Anthropic调整隐私政策,将利用Claude聊天记录进行AI训练
Anthropic公司近日宣布了一项重大政策调整,将从根本上改变其处理用户数据的方式。从即日起,除非用户在9月28日前主动选择退出,否则该公司将使用其Claude聊天机器人的聊天记录和编码会话数据来训练其AI模型。这一举措标志着Anthropic从之前的“隐私优先”策略中转变。
这一政策更新将影响所有使用Claude Free、Pro和Max订阅计划的用户,包括使用Claude Code的用户。根据The Verge的报道,同意数据训练的用户,其数据将被保留长达五年,而非之前的30天,这显著延长了数据存储时间。
用户选择退出过程引发争议
现有用户将收到一个名为“消费者条款和政策更新”的弹窗,要求他们在9月28日前做出决定。这一界面设计引发了隐私倡导者的批评,因为显眼的黑色“接受”按钮被突出显示,而选择退出的选项则以较小的文字出现在下方。默认情况下,选择退出的开关是“开启”的,这意味着如果用户未仔细阅读细节而直接点击“接受”,将自动同意数据训练。
新用户将在注册Claude时遇到这一选择。如果用户在接受后希望更改选择,可以通过导航到“设置”中的“隐私”选项,关闭“帮助改进Claude”的开关。
商业账户不受影响
此次政策调整主要针对消费者账户,不适用于商业服务,包括Claude for Work、Claude for Education或通过亚马逊Bedrock和谷歌云Vertex AI等合作伙伴的API访问。企业客户在商业协议下仍保持现有的数据处理条款。
网络安全背景
Anthropic在发布这一政策调整的同时,还发布了一份威胁情报报告,详细描述了网络犯罪分子利用Claude Code进行的大规模勒索操作。报告指出,这些操作针对了17家组织,包括医疗保健提供商和政府机构,其中一起案件的勒索金额超过50万美元。此外,Anthropic还发现朝鲜特工利用Claude欺诈性地获得财富500强科技公司的远程职位,尽管他们缺乏基本的编程技能。
行业背景与隐私转变
据AInvest报道,Anthropic此前一直将自己定位为OpenAI等竞争对手的隐私优先替代方案,后者自动收集用户数据。Anthropic曾表示,除非用户特别提供反馈,否则不会使用用户对话来训练Claude。此次政策逆转被媒体称为向传统大型科技公司数据实践的“范式转变”。
更新后的条款还引入了扩展的监控条款,明确将标记内容用于“AI安全研究”,并扩大了研究的定义,包括“AI模型的社会影响”。此外,Anthropic还增加了位置跟踪,并通过新的“非用户隐私政策”扩大了从第三方来源收集数据的范围。
Anthropic表示,将使用“工具和自动化流程的组合”来过滤敏感数据,并且不会与第三方共享信息。公司认为这一政策变更是必要的,以提供“更强大、更有用的AI模型”,并加强对有害使用(如诈骗和滥用)的防范。
总结
Anthropic的这一政策调整不仅改变了其数据处理方式,还引发了关于用户隐私和AI模型训练的广泛讨论。尽管公司强调这一变更是为了提升AI模型的能力和安全性,但用户和隐私倡导者对其潜在影响表示担忧。
评论总结
评论主要围绕Claude应用默认启用用户聊天数据训练功能及其隐私问题展开,观点分为支持和反对两方。
支持数据训练的观点: 1. 用户数据对AI模型改进有重要价值,尤其是通过分析聊天记录中的反馈信号来优化模型。 - "I think there is amazing signal inside the chat logs... this is probably the most efficient way to improve AI." (评论11) - "Frankly I don't mind much if they use my js debugging conversation to train the next models..." (评论21)
- 数据训练是行业普遍做法,用户应有所预期。
- "All models are trained on data obtained without consent." (评论12)
- "If I'm not paying for something, I presume this is the kind of thing that's happening..." (评论23)
反对数据训练的观点: 1. 默认启用且隐藏设置的做法侵犯用户隐私,应明确告知并获得用户同意。 - "You can opt out, but the fact that it's opt-in by default... leaves a sour taste in my mouth." (评论4) - "training on users' personal conversations or code feels like something that should require a very clear and explicit opt-in." (评论24)
数据保留时间过长,且可能被滥用或泄露。
- "The five year retention period seems... excessive." (评论4)
- "How long before some poor kids chocolate pudding fetish makes it to the model and they get bullied at school for it?" (评论20)
付费用户应享有更高隐私保护,不应被默认纳入数据训练。
- "And this is only for free users, paid users should never have to think about this." (评论26)
- "If you pay for Gemini as a private user and not as a corporation, you are fair game for google." (评论28)
其他相关讨论: 1. 用户对AI服务的隐私政策和设置透明度表示不满。 - "Am I the only one who finds the branding and privacy policies around these AI services (possibly deliberately) confusing?" (评论24) - "Navigate to... and disable it before Sept 28. Isn't applicable to team plan." (评论9)
- 对AI生成内容的可靠性提出质疑。
- "The Perplexity report is vibe-written and an excellent example that 'AI' is entirely unreliable." (评论27)
总结:评论反映了用户对AI数据训练功能的复杂态度,支持者强调其对模型改进的价值,反对者则关注隐私侵犯和透明度问题。付费用户期望更高隐私保护,而行业普遍做法也引发了对数据使用规范的讨论。