ChatGPT每日消耗50萬度電 爲美國家庭逾1.7萬倍

ChatGPT面世兩個月後即擁有1億個活躍用戶,而且用戶數仍不斷增長。美國雜誌《紐約客》報導指ChatGPT每天可能消耗約50萬度電,才能迴應用戶約2億個使用請求。按2022年美國家庭平均每天使用29度電計算,即高達17,241倍。

由於ChatGPT背後的生成式AI展示出驚人潛在商機,吸引科技業紛紛投入這個領域。專家估計若生成式AI被進一步使用,其耗電量可能會更驚人。

荷蘭央行數據科學家德弗里斯(Alex de Vries)估計若ChatGPT功能被整合在谷歌(Google)的搜尋引擎裡,谷歌每年耗電量將高達290億度電,超過肯亞全國一年用量。

德弗里斯評估整個AI產業在2027年,全年總耗電量可能在850億度電到1,340億度電之間。以區間最高值計算,光AI一個產業就佔全球總耗電量比率達0.5%。

他認爲解決AI驚人耗電量是首要任務。若沒有足夠潔淨供應,去讓AI碳排放受到控制的話,全球就要付出極大的環境污染代價。

目前科技巨頭積極讓AI與雲端運算結合來提供創新應用,爲個人和企業創造更多價值,但這被視爲令數據中心耗電量持續爆增的主因,讓人擔心給環保帶來災難性破壞。

國際能源總署(IEA)指數據中心和傳輸網路,佔全球總耗電量比率已分別達到1.5%。其評估科技業要訓練1個AI模式,每年的耗電量就是一般家庭的逾100倍。目前生產潔淨能源來供應AI的速度,根本追不上AI的發展。

雖然亞馬遜、微軟和谷歌等「超大規模雲端用戶」(Hyperscaler)都增加使用風力發電和太陽能等再生能源,爲自家營運設下減碳目標,但在積極應用AI的情況下,專家認爲這些科技巨頭根本很難完全達成自己設下的碳排放標準。