在人工智能快速发展的大背景下,隐私与数据使用已成为备受关注的焦点。近日,Anthropic 公司宣布对其消费者条款和隐私政策进行重大更新,允许用户选择是否将他们的对话数据用于训练其 AI 模型 Claude。这一变化标志着 Anthropic 从以往不使用消费者聊天数据转向更积极的数据利用策略,用户需要在 2025 年 9 月 28 日前做出决定,否则默认同意数据共享。 此举旨在提升模型的安全性和性能,但也引发了关于隐私保护的讨论。
Anthropic 是 Claude AI 的开发者,以其注重安全和道德的 AI 开发而闻名。过去,该公司明确表示不使用消费者聊天数据来训练模型,而是依赖其他来源如公开数据或专业数据集。然而,随着 AI 竞争的加剧,Anthropic 决定调整策略。从 2025 年 8 月 28 日起,用户的新聊天记录和编程会话(包括 Claude Code)将被用于模型训练,除非用户主动选择退出。
根据官方公告,这一更新仅适用于 Claude Free、Pro 和 Max 计划的用户,不涉及商业服务如 Claude for Work、政府或教育版,以及通过 Amazon Bedrock 或 Google Cloud 的 API 使用。 Anthropic 强调,通过用户数据训练,可以更好地检测有害内容,减少对无害对话的错误标记,并提升模型在编程、分析和推理等方面的能力。最终,这将为所有用户带来更优秀的 Claude 版本。
此外,数据保留期也发生了变化。对于同意数据共享的用户,新聊天和编程会话的数据将保留五年,而非以往的 30 天。这有助于公司分析长期模式,识别滥用和垃圾信息。 Anthropic 表示,他们会使用工具和自动化流程过滤或模糊敏感数据,且不会将用户数据出售给第三方。一旦用户删除对话,这些数据也不会用于未来训练。
用户可以通过 Claude 的隐私设置页面(https://claude.ai/settings/data-privacy-controls)随时选择退出。 新用户在注册时即可设置偏好,而现有用户将收到弹窗通知,需在 9 月 28 日前决定。逾期未选的用户必须选择后才能继续使用 Claude。该设置仅适用于新聊天或恢复的旧聊天,先前不活跃的对话不会被用于训练。
多家科技媒体报道了这一变更,并提供了详细的退出指南。例如,TechCrunch 建议用户尽快检查设置,以避免无意中共享数据。 Lifehacker 也强调,虽然默认是同意,但退出过程简单,只需几步操作。
这一政策转变被视为 AI 行业的一个趋势。类似于 OpenAI 和 Google 等公司,Anthropic 希望通过真实用户交互数据来优化模型,使其更贴近实际需求。The Verge 指出,这将帮助 Claude 在竞争中保持领先,但也可能让用户感到不安,尤其是那些分享敏感信息的用户。
隐私倡导者表达了担忧。LinkedIn 上的一篇分析文章认为,此举虽不意外,但反映了 AI 行业在数据饥渴与隐私平衡间的挣扎。 一些用户在 Reddit 上讨论,担心数据被用于训练后可能泄露个人信息,尽管 Anthropic 承诺过滤敏感内容。UPI 报道还提到,这一公告发布仅一天前,就有黑客利用 Claude 发现公司漏洞的新闻,这进一步加剧了安全疑虑。
从积极角度看,Anthropic 表示,用户贡献的数据将直接提升模型的安全性。例如,通过分析对话,可以更好地训练有害内容检测系统,减少误判。这与公司一贯的“有益 AI”理念相符。
与其他 AI 巨头相比,Anthropic 的做法相对透明。OpenAI 的 ChatGPT 早已使用用户数据训练模型,但也提供退出选项。Google 的 Gemini 同样依赖用户反馈优化。Anthropic 的五年保留期较长,这可能为模型迭代提供更多优势,但也增加了数据管理的复杂性。
展望未来,这一变更可能推动更多用户关注隐私设置。Mint 报道称,默认训练的设置可能会让部分用户感到不满,但也为 AI 进步注入新动力。 随着监管如欧盟 GDPR 的加强,AI 公司需在创新与合规间找到平衡。
总之,Anthropic 的政策更新体现了 AI 发展的双刃剑:更智能的模型 vs. 隐私权。用户应根据自身需求决定是否参与,共同塑造更安全的 AI 未来。
暂无评论: