Anthropic 推出新的數據政策—用戶必須選擇退出或共享聊天記錄
目錄
你可能想知道
- 為什麼像 Anthropic 這樣的公司現在正在改變他們的數據政策?
- 這些變化對用戶隱私有什麼影響?
主要主題
Anthropic 正在改變其管理用戶數據的方法,這一改變迫使他們的 Claude 系列產品用戶做出選擇:要麼選擇不分享他們的對話以用於 AI 培訓,要麼允許共享。這個關鍵決定必須在 9 月 28 日之前做出,與此前 Anthropic 不使用聊天數據進行模型訓練的做法形成鮮明對比。
以前,除非法律要求,否則用戶數據僅保留最多 30 天。對於不選擇退出的用戶,公司將這一數據保留期延長至五年,這反映了其數據政策的重大變革。這次更新將適用於使用 Claude Free、Pro 和 Max 的用戶,包括 Claude Code,而企業級和使用 API 的客戶如 Claude Gov 和 Claude for Work 則不受影響。
那麼,為什麼要改變?根據 Anthropic 的說法,此舉鼓勵用戶選擇,並通過使用真實世界數據支持其 AI 模型在編碼和分析等技能方面的改進。然而,質疑者認為這可能是增強 Anthropic 在與像 OpenAI 和 Google 這樣的大型競爭對手競爭中的優勢的策略。確實,訓練先進的 AI 模型需要大量優質數據,而用戶對話正好能夠提供豐富的數據。
這一轉變反映了更廣泛的趨勢,因為 AI 公司面臨著日益增長的關於數據管理的壓力。例如,OpenAI 因數據保存訴訟而被法律要求保留每一次 ChatGPT 的交互,這一舉動被視為與保障用戶數據的隱私政策相抵觸。
一個重要的擔憂是,隨著這些政策快速演變,用戶可能會感到困惑。許多用戶可能因為更新如何被傳達而不了解這些變更。在典型的做法中,界面可能會以一種方式顯示更新,促使用戶快速接受,而未充分考慮數據許可,這一問題被《The Verge》之類的觀察人士注意到。
關鍵見解表
方面 | 描述 |
---|---|
數據保留變更 | Anthropic 將用戶數據保留時間從 30 天延長至五年,除非用戶選擇退出。 |
用戶意識 | 更新設計可能導致用戶不知情地接受新的數據共享條款。 |
後續...
展望未來,有關數據隱私和 AI 的對話預期將加劇。新挑戰將是確保數據使用中清晰的透明性和有意義的同意。像美國聯邦貿易委員會這樣的監管機構可能在審查這些政策的實施方式,並確保公司不會將重要信息掩蓋在複雜的法律語言中時,扮演越來越重要的角色。隨著科技環境的不斷演變,將倫理與 AI 開發相結合需採取更為平衡和公平的方法,維護用戶權利並促進對這些技術的信任。