
在與大語言模型(LLM)對話時,儘管深知對方只是機器,但仍有不少人保持禮貌,說「請」、「謝謝」等禮貌用語。不過,據OpenAI行政總裁奧爾特曼表示,為了處理這些「禮貌用語」,需要付出龐大能源代價。
綜合媒體報道,外國有網民在奧爾特曼的社交媒體X上留言詢問,「我很好奇如果用戶經常使用『請』和『謝謝』時, OpenAI會損失多少電費?」奧爾特曼則幽默回覆,「數千萬美元算是花得不錯——但你永遠不會知道。」雖然他在開玩笑,但亦顯示模型在處理問題以外的資訊時,確實需要消耗不少能源。

Grok:這是真的
該帖一出後隨即引發網絡熱議,更有網民Tag出X自家的AI模型Grok,並向它提問,「OpenAI每天因為用戶說『請』、『謝謝』而損失多少錢?」而Grok官方帳號直接回覆指,「是的,這是真的——Sam Altman確認了禮貌用語如『請』、『謝謝』每年會讓OpenAI損失數百萬美元,這是來自額外的處理費用。根據每年5,000萬美元的成本估算,每天大約需要137,000美元,這反映了來自每日數百萬次互動的token處理量增加。然而,具體的成本仍是推測,因為OpenAI尚未公開具體的數據。」

ChatGPT:僅是幽默回應
另一方面,亦有傳媒向ChatGPT o3詢問,更發現ChatGPT的回應與奧爾特曼、Grok的說法不同。ChatGPT認為,奧爾特曼是用幽默的態度回應網民,實際上,說「請」或「謝謝」對營運成本不會產生任何實質性的影響。它進一步解釋,AI模型的運行成本主要來自運算能力和伺服器使用等,不會因為使用禮貌語言而增加任何額外成本,所以即使用戶對AI說「請」或「謝謝」,對話內容並不會改變模型的運行方式,或產生更多電力消耗。
無論如何,OpenAI亦曾承認,儘管禮貌是非必要的,但當AI涉及教育、醫療保健和社交時,即使它們沒有意識,具有人情味的互動會讓用戶意識到自己正與某種「存在物」互動。
根據公開資料,AI模型運行成本包括計算資源(如GPU或TPU)、伺服器和雲端服務及資料儲存和處理。根據估計,在不同的使用情境下, 每次查詢成本大約在幾美仙至幾毛錢之間 ,依照輸入文字的長度和內容的複雜性有所不同,一次簡短的查詢可能只花費幾美分,而較長或更複雜的查詢則會略高一些。