ChatGPT 的能耗:重新思考數字

ChatGPT 的能耗:重新思考數字

前言

: 最近關於由 OpenAI 開發的流行 AI 聊天機器人平台 ChatGPT 的能耗討論,激發了挑戰既定假設的新見解。Epoch AI,一個非營利研究機構,進行了一項分析,揭示了 ChatGPT 的能耗可能沒有先前認為的那麼高。

懶人包

: Epoch AI 的這項研究發現,之前對 ChatGPT 能耗的估計可能被誇大了。根據更新且更準確的數據,每次查詢的能量需求似乎不如預期的那麼高。

正文

: 在 AI 社群中,一個顯著的爭論點是像 ChatGPT 這樣的 AI 模型的能耗,特別是在它們的使用場景和部署變得越來越普遍的情況下。以前常被引用的一個估計指出,ChatGPT 每次查詢大約需要 3 瓦特小時的電力,這比典型的谷歌搜索高出十倍。然而,Epoch AI 最近的研究表明,這一數字與實際相差甚遠。利用 OpenAI 最近的模型 GPT-4o,Epoch 計算出實際能耗可能約為每次查詢 0.3 瓦特小時,遠低於先前的假設。這種認知上的轉變來自於包含了更新的計算模型和 OpenAI 使用的更高效的晶片,反駁了舊的數據和誤解。 AI 能源使用的話題至關重要,不僅因為運營成本,還考量到環境問題。 AI 驅動的任務的確需要資源,但與日常家電或汽車使用相比,額外負擔顯得微不足道。然而,隨著 AI 技術的普及,有關 AI 及其對氣候影響角色的對話仍然很重要。最近幾個月,AI 模型變得更加高效,但這些模型部署的龐大規模和範圍可能會導致一個巨大的基礎設施足跡,需要大量的電力資源。報告預測,在未來的十年內,訓練高級 AI 模型可能需要相當於運行多台核反應堆的電力輸出。 ChatGPT 本身,由於其用戶基數的擴大,代表了一個需求的重要部分。 OpenAI 和其合作夥伴似乎準備對新的數據基礎設施進行大量投資,認識到能源高效 AI 開發日益重要。行業中對推理模型的重視不斷增加,這些模型需要更廣泛的計算資源。與 GPT-4o 等提示-響應模型不同,推理模型因其複雜的決策演算法而需要更長的時間來處理數據,消耗更多的能量。然而,OpenAI 正在努力開發更高效的推理模型,如 o3-mini,儘管效率提升可能無法完全彌補日益增長的能源需求和全球 AI 使用的擴張。關注自己數字能量足跡的用戶被鼓勵選擇資源消耗較低的 AI 模型,並限制其使用於涉及大量數據處理的必要任務。這種積極的方法,如 Epoch 的 Joshua You 所建議,有助於減輕由廣泛的 AI 部署引起的無意能耗激增。

主要觀點表

方面描述
修正消耗現估算 ChatGPT 每次查詢使用 0.3 瓦特小時。
基礎設施影響AI 數據中心可能很快需要全州或核設施的容量。

最後編輯時間:2025/2/12

Mr. W

Z新聞專職作家