AI運算時代的機櫃設計指南|用機櫃把散熱與效率拉滿
一、機櫃在 AI 時代的角色:導風、隔熱、供配電、相容液冷
AI 運算的浪潮正改變資料中心的核心結構。隨著 GPU 伺服器功率密度動輒超過 40 kW,一個單櫃的熱負載相當於以往整排伺服器機櫃的總和。此時「機櫃」已不只是裝機的容器,而是導風、隔熱、配電、支撐與液冷整合的關鍵節點。
一個成功的 AI 機房設計,不只取決於單台伺服器規格,而是「櫃內氣流」+「行列封閉」+「機房回風路徑」三者的整合效率。
-
導風:確保冷風能順利從前門導入,經過伺服器熱源後由後門排出。
-
隔熱:防止冷熱空氣混流,維持氣流方向一致。
-
供配電:支援高瓦數伺服器的電源冗餘與整線管理。
-
液冷相容:為未來升級 RDHx(Rear Door Heat Exchanger)或冷板系統預留空間。
二、機櫃在散熱中的角色:把「冷」送到位,把「熱」帶出去
1. 氣流方向是王道:前進後出(Front-to-Back)
AI 伺服器幾乎都採用前進風、後出風設計。若機櫃門型或開孔率不足,將導致風阻上升、冷卻效率下降。
2. 門型與開孔率設計
-
前門開孔率建議 ≥ 75%:確保冷空氣能有效流通。
-
後門開孔率 ≥ 80% 或採蜂巢式孔型,以減少排風阻力。
-
高密度應用可考慮穿孔鋁門或加裝後門熱交換器(RDHx)。
3. 封堵與隔離管理
未使用的空槽應加裝擋風板(Blanking Panel),防止冷空氣短路;線材孔洞須以刷條封堵,避免熱氣回流。
4. 佈線與阻風
纜線過多、路徑錯亂會嚴重阻礙氣流。建議使用垂直走線槽與頂置纜線架分流,避免線材堵住風道。
三、氣流設計與冷熱通道:從櫃內到行列的一致性
1. 冷熱通道(Cold/Hot Aisle Containment)
在 AI 機房中,冷熱通道的封閉設計是效率核心。冷通道封閉(CAC)適合高功率、高密度伺服器;熱通道封閉(HAC)則利於整體空調控制與能源回收。
2. 行列式空調與頂置排風
-
行列式空調(In-row Cooling):讓冷風就近送入機櫃,縮短氣流路徑。
-
頂置排風(Overhead Return):將熱氣引導至天花板回風區,提高冷卻效率。
3. 監測點位與指標
安裝溫濕度感測器於櫃前、櫃後、頂部與底部位置,持續監測 ΔT(進出風溫差),確保冷氣分配均勻。
4. 實務優化
可利用 CFD 模擬(Computational Fluid Dynamics) 分析氣流路徑,找出熱點(Hot Spot),再透過擋板或導風罩微調,達到最佳能效比。
四、高密度伺服器的機櫃選擇:規格、承重與相容性
1. 尺寸與承重
-
標準 42U 高、600mm 寬、1000mm 深已逐漸不敷使用。
-
AI 機櫃建議採 1200mm 深、700mm 寬 規格,以容納大型 GPU 伺服器。
-
承重建議 ≥ 1500 kg,支撐滿載設備與供電模組重量。
2. 配電與冗餘
AI 運算對電力穩定度極高。每櫃應配有雙路 PDU(Power Distribution Unit),並支援 32A 以上輸入電流。
3. 維護與安全
滑軌設計、快拆門板與安全鎖具能提升維護效率與防護性。建議使用具 EMI 抑制與防震結構的產品。
4. 液冷相容
若預計導入液冷,選購時需確認:
-
櫃體可安裝 RDHx 或冷板液冷模組。
-
管線預留孔位與冷卻液接頭位置。
-
機櫃底座具備防滲漏托盤設計。
5. 驗收清單(櫃內)
-
開孔率達標
-
擋風板完整
-
線槽封堵妥善
-
PDU、感測器配置正確
-
承重測試通過
五、從櫃到房的落地路線:低風險逐步升級
第1階:風冷做到頂
在既有風冷架構中透過氣流導向優化、封堵管理、冷熱通道封閉,即可提升 20% 散熱效率。
第2階:局部 RDHx 或冷板液冷
針對最熱區(如 GPU Cluster)導入 局部後門熱交換器(RDHx) 或冷板液冷,減輕機房整體負載。
第3階:混合式長期規劃
最終可導入混合式架構,結合風冷與液冷系統,搭配動態能耗監控平台,逐步升級而非一次性更換,降低風險與成本。
六、FAQ:實務常見問題解析
Q1:前門/後門的開孔率要多少才夠?
前門至少 75%,後門 80% 以上;若採高密度 GPU 櫃,建議選用穿孔鋁門或整合式 RDHx。
Q2:既有 42U 600×1000 櫃可以撐 AI 伺服器嗎?
多半不建議。深度不足、承重不夠、氣流阻力高,建議更換為 1200mm 深的高承重櫃。
Q3:冷通道 vs 熱通道封閉,哪個更適合?
若追求極致散熱與能源回收,熱通道封閉(HAC)更有效;若空調布局受限,冷通道封閉(CAC)更容易導入。
Q4:要不要一開始就上 RDHx 或液冷?
不需一步到位。可先以風冷優化與局部液冷混合方式,待伺服器密度或功率上升後再全面導入。