人工智慧與高效能運算資料中心
容錯解決方案
整合式記憶體
人工智能 (AI) 需要新的運算功率需求。在過去 10 年中,資料中心處理器和加速器的平均耗電量已幾乎增加了三倍,而且需求也持續上升。
AI 基礎架構內圖形處理單元 (GPU) 叢集所需的耗電量增加對資料中心作業有重大影響。與傳統 IT 系統相比,AI 叢集具有嚴苛且複雜的電源需求,高密度機架可從 40kW 到 125kW,而極密度機架可達 200kW 或更高。
對持續、高密度電源的需求負擔現有關鍵基礎設施,並可能會減慢轉向清潔能源的過渡。
節能技術沒有進步,能源需求擴大會阻礙環境和氣候中和目標。
AI 推論和模型培訓可能非常耗電,從而引發更多關注可持續性和能源成本。
如果處理器需要存取資料的速度比傳送速度更快,記憶體可能會成為運算容量的重大瓶頸。
AI 正在迅速徹底改變產業,隨著這種加速的增長,對能源需求顯著增加。隨著 AI 工作負載擴大,訓練和運行模型所需的耗電量飆升,引發了對可持續性和氣候影響的擔憂。
到 2026 年,僅人工智慧資料中心預計每年消耗 90 TWh,比 2022 年增加了十倍。此外,託管 AI 營運伺服器的數據中心負責全球用電量的 1% 以上,預計將消耗高達 截至 2028 年,美國電力佔 12%。
在全球範圍內,數據中心能源消耗持續上漲,預計到 2030 年將超過 1,300 TWh,除非實現新的效率改善。
AI 工作負載的耗電性質對組織的氣候目標構成了重大挑戰。儘管許多科技巨頭承諾到 2030 年前的碳中和,但由於數據中心擴展和相關的 AI 計算功率需求,溫室氣體排放量繼續以指數增長。
除了碳足跡之外,資料中心也會對其他本地資源造成壓力。這些設施每年消耗數百萬加侖的飲用水,這對缺水的地區構成了一個重大挑戰。同時,由於司法管轄區為位於人口區附近的數據中心分配更多房地產,因此,位於數據中心附近的社區正在對電力,供水和分區問題的擔憂。
電力和熱源是當今資料中心面臨的兩大挑戰。密度較高的機架需要更多功率,但這些機架則會產生大量的熱量,這些熱量無法使用傳統方法可持續冷卻。
液體浸式冷卻 為此挑戰提供了引人注目的解決方案。與傳統的空氣冷卻系統相比,這種方法需要更少的功率。透過消除風扇、減少空間需求,以及消除冷卻基礎架構的負擔,液體浸式冷卻可降低高達 50% 冷卻資料中心伺服器設備所需的能源。
案例研究: 了解我們的方式 提升性能並降低排放 在 Shell 的資料中心採用資料中心浸式冷卻功能。
企鵝解決方案還可以幫助您改善 資料中心的可持續性 採用通過直接晶片冷卻和雙相液冷卻的解決方案,例如無水冷卻。探索我們 可擴展的 AI 基礎架構解決 充分發揮 AI 解決方案的使用和潛力。
立即與我們聯繫,了解我們如何協助您在設計資料中心基礎架構時滿足可擴展的 AI 計算能力需求。