企業AI應用普及,讓數據中心能源和資源消耗急劇增長,這直接影響ESG(環境、社會與治理)平衡。數據中心也只能積極尋找解決方案,以確保推動AI應用的同時,也不犧牲ESG。數碼基礎設施公司Equinix最新就宣布,與Dell Technologies及施耐德電氣聯手,成功於Equinix HK1數據中心部署液體冷卻技術,為高功率密度(HPD)的AI運算伺服器降溫,以應對不斷演變的AI及機器學習工作負載需求。
Equinix香港區董事總經理韓祖恩今(10日)在記者會上提到,訓練AI和運算均需要大量數據,而所需的電力也正不斷急劇上升。她引述高盛的一項研究指出,全球數據中心的用電需求預計到2027年將成長50%,到2030年更將比2023年高出165%。
施耐德電氣香港區總裁趙啟文也提及,AI只會不斷發展,數據中心對高密度運算及高能源效益基礎的需求,也只會愈來愈高,他憶述:「20年前每個機櫃的功耗普遍在1.5千瓦左右,後來慢慢發展至20至30千瓦,現時AI運算的情況下,動輒超過100千瓦。」他強調,傳統電腦機櫃空調系統(CRAC)已難以將有效將熱能帶走。
為更高效地應對AI工作負荷所帶來的挑戰,Equinix就宣布與Dell Technologies及施耐德電氣聯手,嘗試在Equinix HK1數據中心設置50千瓦機櫃式直達芯片(Direct-to-chip)液體冷卻系統,解決高密度伺服器的散熱問題。
據介紹,此系統安裝了Dell Technologies直達芯片液冷伺服器,以及施耐德電氣的機櫃式液體冷卻CDU系統。韓祖恩解釋,今次之所以會選擇採用液冷方案,是因為聽到客戶的需求。而液體(導熱式冷卻)能夠傳導的熱量比空氣高逾3,000倍,且所需能耗更低,有助提升數據中心的部署密度。
她也直言,了解到市面上還有許多不同的冷卻技術,未來也不會排除使用其他方案,「但Equinix香港區目前大多為金融界客戶,均表示希望機櫃以「乾身」為主,所以今次就嘗試先部署液體冷卻技術。」據Equinix提供的資料顯示,每個機櫃的冷卻容量高達150千瓦,是傳統空氣冷卻系統的30倍。中華電力也為Equinix HK1數據中心進行能源審核,認為採用液體冷卻後,能源效率可提升,PUE可降至1.2或更低,優於傳統電腦機櫃空調系統的1.4至1.5。倘若數據中心全面推行液冷系統,每座數據中心每年更可節省超過2,000兆瓦(約200萬度電)的能源。
最重要的是,這種技術可以應用在現有的基礎建設當中,即使空間有限,亦毋須大規模改動。就像今次就能夠在Equinix HK1數據中心的一個標準的1.2米深機櫃內進行部署。該企也預料未來可擴展至整個房間、甚至高達2兆瓦的大型獨立冷卻系統。韓祖恩另透露,除了Equinix HK1數據中心會試用此新技術外,預計明年Equinix HK6數據中心也將會應用。