根據國際能源總署(IEA)的能源與人工智慧報告(Energy and AI)指出,一座100 MW規模的AI專用資料中心,其電力消耗約相當於10萬戶家庭用電量,對電力的需求非常可觀。國際能源總署並預測,到2030年,全球AI專用資料中心的耗電量甚至相當於日本一個國家的數量。


至於對個別的科技巨頭來說,微軟(Microsoft)執行長納德拉(Satya Nadella)最近在與OpenAI執行長阿特曼(Sam Altman)的podcast節目中坦言:「我們現在面臨的最大問題,不再是運算資源過剩,而是電力——以及能否夠快地在有電力的地方完成設施建置。」


他補充說:「如果做不到這點,我們可能會有一堆晶片躺在倉庫裡卻插不上電。」


正如1990年代的網際網路基礎設施狂潮,如今科技巨頭正投入前所未有的資金,打造支撐人工智慧革命的「矽基骨幹」。


Google、微軟、亞馬遜網路服務(AWS)與Meta(臉書)動用其龐大現金儲備,預計在2025年投入約4000億美元建設,2026年支出將更高。


這筆巨資已幫助業界緩解最初的瓶頸——取得數百萬顆支撐運算能力所需的晶片。這些企業也加速自製處理器的研發,以追趕全球領先的輝達(Nvidia)。


在美國建造一座大型資料中心平均需要兩年時間,但興建新的高壓電力線路則需5到10年。


●能源「高牆」


矽谷所謂的「超大規模運算業者」(hyperscalers)早已預見這道「能源高牆」。


早在1年前,美國維吉尼亞州主要電力供應商道明尼能源公司(Dominion Energy)就接到高達40吉瓦(GW)的資料中心訂單——相當於40座核電廠的發電量。


該公司近期宣布,其在維吉尼亞州需部署的電力容量已增至47吉瓦。