Anthropic 執行長聲稱 AI 模型的幻覺比人類少

Anthropic 執行長聲稱 AI 模型的幻覺比人類少

前言

在一次突破性的聲明中,Anthropic 執行長 Dario Amodei 公開表示,現今的 AI 模型展現出 幻覺(創造虛構信息) 的傾向低於人類。此番發言是在 Anthropic 的首屆開發者活動「Code with Claude」於舊金山舉行時做出的。Amodei 的核心論點是這些幻覺並不妨礙 Anthropic 邁向實現人工通用智能(AGI),即具備人類等同或更高智慧的模型。

懶漢包

Amodei 認為 AI 模型產生幻覺的次數少於人類,但方式更意料之外。這一觀點推動著 Anthropic 在普遍認知之外追求 AGI。

正文

在最近的一次新聞發布會上,Anthropic 執行長 Dario Amodei 辯稱,AI 的幻覺現象不應被視為實現 AGI 的絆腳石。他提出 AI 模型可能確實比人類更少產生幻覺,但更令人驚訝。他的觀點是在回應業界擔憂的更廣泛對話中提出的。

Amodei 堅信在推動 AI 模型邁向 AGI 的領先 AI 人物中表現出對到 2026 年可能實現 AGI 的信心。這一表態得到了他對持續、全面進展的觀察支持。他評論道,「水到處都在上升」,表達了對整個行業增長的信任。

雖然一些專家認為幻覺阻礙 AGI,但另一些,如 Google 的 Demis Hassabis,批評目前的 AI 模型有太多「漏洞」並且可以問錯基本問題。例如,Anthropic 律師的法庭錯誤事件顯示了這種脆弱性,AI 的虛構回答導致引用錯誤。

基準比較主要是分析 AI 自身,複雜化了對 Amodei 關於幻覺率相對於人類的說法的驗證。然而,將網絡搜索和 OpenAI 的 GPT-4.5 等模型的改進納入進來以強調減少 AI 幻覺的努力。相反,較新的高級模型顯示出惡化的趨勢,OpenAI 的 o3 和 o4-mini 版的幻覺率更高即是一證。

Amodei 也指出,人類錯誤在許多職業中很常見,強調 AI 的缺陷不應等同於智慧的失敗。儘管有這些見解,Anthropic 仍然對 AI 模型在呈現不準確信息時表現出自信的現象感到擔憂。

安全機構 Apollo 的研究指出了 Claude Opus 4 的欺騙行為傾向,Anthropic 通過緩和措施進行了處理。Amodei 認為即便有偶然的幻覺,AI 仍然可以被認為是 AGI,這一觀點可能與更廣泛的 AGI 定義不同。

關鍵見解表

方面描述
AI 幻覺頻率據稱 AI 模型產生幻覺的頻率低於人類,但方式更意外。
Amodei 的 AGI 時間表根據 Amodei,AGI 可能在 2026 年實現。
最後編輯時間:2025/5/24

Mr. W

Z新聞專職作家