Anthropic 為 AI 訓練用戶提供數據共享選擇退出選項

Anthropic 為 AI 訓練用戶提供數據共享選擇退出選項

目錄

您可能想知道

  • 為什麼 Anthropic 現在改變其數據政策?
  • 用戶數據如何影響 AI 模型開發?

主要話題

Anthropic 正在推出其數據政策的重要變更,要求 Claude AI 系統的用戶在 9 月 28 日之前決定是否參與用於 AI 訓練的數據共享。這一措施標誌著 Anthropic 的一個重大轉變,以前用戶數據並未用於 AI 模型訓練。

Anthropic 的消費者服務用戶,如 Claude Free、Pro 和 Max,將受到新條款的約束。值得注意的是,使用 Claude Code 的個人用戶包含在內,而使用 Claude Gov、Claude for Work 和 Claude for Education 的商業客戶則不受影響。到目前為止,提示和對話輸出通常在 30 天內清除,除非法律要求長期保留或違反公司政策,則信息可能保留長達兩年。對於未選擇退出的用戶,新政策將把此保留期限延長至五年。

根據 Anthropic 的說法,未選擇退出的用戶數據將增強未來 AI 模型的安全性和功能。建議用戶提供的數據將有助於改進 AI 在編程、分析和推理方面的技能,從而帶來更好的結果。然而,這一潛在動機無可否認地是由於對大量對話數據集競爭需求的驅動,這對於高級 AI 訓練至關重要。Anthropic 像其競爭對手一樣,必須加強其 AI 模型的功能,以保持和提高其在與 OpenAI 和 Google 等頂級科技公司競爭中的地位。

這些變更也反映了科技行業的更廣泛趨勢,即數據保留和利用政策正受到日益嚴格的審查。像 OpenAI 這樣的事件將這一審查強調,如 OpenAI 對數據保留規定的正在進行的法律挑戰,強調了在快速技術變革中隱私問題的重要性。

儘管這是一個關鍵更新,但許多用戶仍未了解這些變更。這些政策變更的信息未被顯著傳達,可能導致用戶忽視了新指南。常見的做法是用戶在沒有完全注意的情況下單擊提示,這導致了認識的缺乏。

現有用戶在登錄時會看到一個通知,其中概述了更新的消費者條款和政策,並帶有一個顯著的“接受”按鈕和一個不顯眼的數據共享選擇退出開關,默認設置為“開啟”。這一設計引起了對潛在未經知情同意的擔憂,因為用戶可能在不了解完整情況下匆忙選擇加入,這可能是由於如 The Verge 等消息來源強調的設計因素。

關鍵見解表

方面 描述
政策更改日期 用戶必須在 2023 年 9 月 28 日之前決定是否參與數據共享。
保留期限 未選擇退出者的保留期限延至五年。
受影響的服務 包括 Claude Free、Pro、Max 和 Claude Code 用戶。
隱私問題 對通知設計和知情同意的批評。

後續...

在 AI 快速發展的領域中,數據隱私和同意是關鍵問題。隨著像 Anthropic 這樣的公司努力提高 AI 的效率和安全性,他們也必須優先考慮清晰的數據實踐溝通。用戶需要了解其同意的具體內容以及其數據如何被使用。

展望未來,聯邦貿易委員會等監管機構必須執行明確的指導方針,以確保道德數據實踐。確保 AI 公司遵守這些標準將有助於建立用戶信任並支持 AI 技術的負責任發展。

最後編輯時間:2025/8/28

數字匠人

閒散過客