AI 趨勢:馬力不夠,別急著上車!
人工智慧(AI)或許能帶來生產力的多項好處,但一位業界專家在周二提醒,該技術的普及應用可能將超越某些國家的電力需求。
阿姆斯特丹自由大學的博士候選人兼研究公司 Dichotomist 創辦人 Alex de Vries 在期刊 Joule 的評論文章中,探討了 AI 自 2022 年迅速增長以來對日常任務(如編碼、寫作,甚至駕駛汽車)的影響。「從對 AI 服務的需求增長來看,與 AI 相關的能源消耗在未來幾年將大幅增加的可能性非常高」,de Vries 在一份聲明中說道。
😨太「花香力氣」了!AI 能源消耗大增
AI 最快速的擴展形式是生成 AI,這是一種允許用戶使用最簡單的需求生成新的文本、圖像、視頻和其他數據的工具。OpenAI 的 DALL-E 和 ChatGPT 就是其中的代表。其中後者是一個談天賽群豪的 AI 聊天機器人,僅用了兩個月就吸引了 1 億名用戶,尤其受到高中生的歡迎。
許多人對生成 AI 的抄襲問題表示擔憂,但這並未阻止像 Alphabet、Microsoft 和 Facebook 這樣的公司迅速開發自己的 AI 平台。de Vries 認為,技術的快速擴展是有問題的,因為它的基本過程潛在地對環境造成了高昂的代價。
像 ChatGPT 和 DALL-E 這樣的工具使用自然語言處理,有初始訓練階段和推理階段。這兩個階段都需要大量的數據來為特定輸出進行訓練,因此消耗了大量的能源。de Vries 解釋道,訓練階段中,AI 模型通常會被提供大型數據集來調整其初始參數,以使預測輸出與目標輸出一致。
對於像 ChatGPT 這樣的大型語言模型,這個過程可以使 AI 模型根據上下文預測具體的詞語或句子,從而指導其行為。訓練本身就消耗大量能源,de Vries 指出,一些大型語言模型在訓練階段將使用從 324 到 1,287 兆瓦時的電力。以此為背景,消耗 433 兆瓦時電力的 AI 工具足以為 40 個美國家庭每年供電。
每個語言模型都是在寬闊的數據集上進行了訓練的,而且參數多達 1750 億個,或更多,de Vries 寫道。
當模型進入推理階段時,它會根據新的數據生成輸出。對於 ChatGPT,這是當聊天機器人根據用戶的回應生成新的輸出時進行的過程。根據估計,這個過程每天將消耗 564 兆瓦時的電力。
雖然公司正努力提高 AI 技術的能源效率,但 de Vries 警告說,這可能只會進一步增加對能源的需求。「將這些工具變得更高效和易於使用的結果可能是,我們只允許它被應用到更多領域和更多人使用」,de Vries 說。
🔋能源消耗大增,AI 需要「馬力加油站」
舉例來說,Google 目前正在將生成 AI 實施到其電子郵件服務和搜索引擎中。考慮到 Google 的搜索引擎已經每天處理 90 億次搜索,de Vries 估計運用 AI 將需要每年約 2920 億瓦時的電力,這比該公司 2021 年的能源消耗增加了 60%。「最壞的情況是 Google 的 AI 消耗的電力可能與愛爾蘭等國家相當」,de Vries 寫道。他補充說,這種情況還假設「全面采用目前硬體和軟體技術的 AI」,這不太可能很快發生。
高成本和供應短缺的 AI 伺服器目前仍然將限制此類情況發生的概率。然而,人們預計 AI 伺服器的生產將增長,並使 AI 相關的電力消耗在未來三年內每年增加 850 至 1,340 億瓦時。
更令人擔心的是,通過提高 AI 的效能,開發人員可能能夠將某些電腦處理芯片用於 AI,進一步增加能源消耗。
為了增加對 AI 環境影響的透明度,de Vries 寫道,規管機構可能需要考慮引入信息披露要求。該作者還指出,開發人員可以批判性地思考某些應用是否真正從 AI 中受益。「潛在的增長凸顯我們需要非常謹慎地選擇我們使用 AI 的領域。由於其能源消耗量大,我們不希望把它應用到所有不真正需要的事物上」,de Vries 說道。
留言
張貼留言