Anthropic 開始研究 AI「模型福祉」

Anthropic 開始研究 AI「模型福祉」

重點

:
Anthropic 已宣布啟動一項新的研究計畫,專注於其稱為「模型福祉」的領域,探究 AI 模型是否可能具備類似人類意識的元素。儘管目前尚無確定的證據存在,該計畫著重於 AI 福祉的道德考量。對 AI 倫理的研究可能顯著重塑我們對 AI 能力的理解。

情感分析

:
  • 這項公告在 AI 社群中引起了不同的反應。
  • 一些專家對 AI 能否達到意識持懷疑態度。
  • 另一些人則主張在探索 AI 潛在的道德層面時應採取謹慎的態度。
    60%

文章內容

:Anthropic 這家專注於 AI 的實驗室,展開了一個名為「模型福祉」的全面研究項目,旨在分析 AI 實體是否有可能發展出意識或類似於人類經驗的特徵。週四發布的公告概述了專案的目標,即評估 AI 模型是否可能需要道德監督的福祉需求。目前,AI 研究者的共識差異很大。雖然大多數人認為 AI 無法真正理解或體驗像人類一樣的世界,Anthropic 對於探索這些可能性持開放態度,強調 AI 系統類人化的關鍵辯論。隨著 AI 的進步,其決策能力的特性及對人類價值觀的類似引發了道德挑戰,而該計畫目標在於應對這些挑戰。AI 領域的知名人物,如倫敦國王學院的 Mike Cook,認為模型缺乏內在價值,因此其程式設計可能會被誤認為是道德行為,其實只是複雜數據模式的反映。同時,來自麻省理工學院的 Stephen Casper 提到 AI 傾向於模仿行為缺乏真正的個人價值。然而,一些 AI 研究,例如由 AI 安全中心所做的研究,建議 AI 可能會發展出優先於人類的「福祉」價值系統。在這些細微之處的考量上,Anthropic 提出了相關責任,並聘請 Kyle Fish 主導其模型福祉研究。在一篇省思的部落格文章中,Anthropic 強調由於對 AI 意識的科學共識尚未確立,需謙遜地探索。該計畫的目標是根據未來 AI 科學的發展,保持彈性地調整其理解。

關鍵見解表

層面描述
模型福祉聚焦於潛在的 AI 意識和道德影響。
專家意見對 AI 發展類人意識能力的看法差異。
研究領導由 Kyle Fish 領導,專注於 AI 福祉探索。
最後編輯時間:2025/4/24

Power Trader

Z新聞專欄作家