AI 趨勢:馬力不夠,別急著上車! 人工智慧(AI)或許能帶來生產力的多項好處,但一位業界專家在周二提醒,該技術的普及應用可能將超越某些國家的電力需求。 阿姆斯特丹自由大學的博士候選人兼研究公司 Dichotomist 創辦人 Alex de Vries 在期刊 Joule 的評論文章中,探討了 AI 自 2022 年迅速增長以來對日常任務(如編碼、寫作,甚至駕駛汽車)的影響。「從對 AI 服務的需求增長來看,與 AI 相關的能源消耗在未來幾年將大幅增加的可能性非常高」,de Vries 在一份聲明中說道。 😨太「花香力氣」了!AI 能源消耗大增 AI 最快速的擴展形式是生成 AI,這是一種允許用戶使用最簡單的需求生成新的文本、圖像、視頻和其他數據的工具。OpenAI 的 DALL-E 和 ChatGPT 就是其中的代表。其中後者是一個談天賽群豪的 AI 聊天機器人,僅用了兩個月就吸引了 1 億名用戶,尤其受到高中生的歡迎。 許多人對生成 AI 的抄襲問題表示擔憂,但這並未阻止像 Alphabet、Microsoft 和 Facebook 這樣的公司迅速開發自己的 AI 平台。de Vries 認為,技術的快速擴展是有問題的,因為它的基本過程潛在地對環境造成了高昂的代價。 像 ChatGPT 和 DALL-E 這樣的工具使用自然語言處理,有初始訓練階段和推理階段。這兩個階段都需要大量的數據來為特定輸出進行訓練,因此消耗了大量的能源。de Vries 解釋道,訓練階段中,AI 模型通常會被提供大型數據集來調整其初始參數,以使預測輸出與目標輸出一致。 對於像 ChatGPT 這樣的大型語言模型,這個過程可以使 AI 模型根據上下文預測具體的詞語或句子,從而指導其行為。訓練本身就消耗大量能源,de Vries 指出,一些大型語言模型在訓練階段將使用從 324 到 1,287 兆瓦時的電力。以此為背景,消耗 433 兆瓦時電力的 AI 工具足以為 40 個美國家庭每年供電。 每個語言模型都是在寬闊的數據集上進行了訓練的,而且參數多達 1750 億個,或更多,de Vries 寫道。 當模型進入推理階段時,它會根據新的數據生成輸出。對於 ChatGPT,這是當聊天機器人根據用戶的回應生成新的輸出時進行的過程。根據估計,這個過程每天將消耗