Categories
科技報導

SC19:我們再次見到了兩相浸入式液冷方案



在去年的超算大會上,我們見到了許多浸入式散熱方案。沒想到在今年的超算大會上,我們又看到了更進一步的展示。所謂“兩相浸入式液體冷卻(2PILC)”系統,主要包含了一台幾乎沒有主動式散熱的服務器,並將其完全浸沒在低沸點的液體中—— 通常是與硅直接接觸的有機化合物,而不是水或油。

1.jpg

(題圖 via AnandTech)

芯片在使用時發熱,然後導致周圍的散熱液沸騰。常見的有 3M Novec of Fluorinert 的變體(沸點在 59 ℃ 左右)。

液體氣化過程會上升並帶走熱量,使得散熱液在兩種相態之間進行對流、冷凝(通過冷卻板或水管)、循環。

2.jpg

這些非離子液體不會導電、粘度和相對適中,能夠有效促進自然的對流。如果芯片的熱設計功耗太高,亦可加入促進對流的主動式散熱方案。

廠家顯然希望讓這套方案在服務器或高性能 PC 領域實現廣泛的運用,在將所有配件保持在合理溫度下的同時,還支持超密集的設計。

3.jpg

比如外媒 AnandTech 報導過的 TMGcore 的 OTTO 系統,就採用了 2PILC 技術。其能夠在 16 平方英尺(約 1.5 ㎡)的空間內,放置高達 60kW 的數據中心單元。

客戶只需為設備供電、供水和網絡連接,在需要維護的時候,這套方案還支持自動取放功能。該公司稱,在受控環境下,2PILC 技術能夠有效延長硬件的使用壽命。

4.jpg

去年,這項技術的主要方向之一,是用於加密系統或超密集協處理器。不過在 SC19 上,我們並沒有見到那麼多,更別提任何面向 5G 邊緣計算的 2PILC 服務器了。

有趣的是,一些組件公司(比如 VRM 製造商),正在驗證其用於 2PILC 環境的硬件。通常數據中心會根據電源使用效率(PUE)來討論能效,比如 1.50 就意味著耗電 1.5 兆瓦,實際功效 1 兆瓦。

0.gif

標準的風冷數據中心,其 PUE 在 1.3 ~ 1.5 之間。一些專有的風冷數據中心,可能會低至 1.07 。液冷的數據中心,也在 1.05 ~ 1.10 PUE 左右(具體取決於不同的構造)。

我們今年在超算環境中見到的獨立 2PILC 單元的最低 PUE 值為 1.028,但若成本僅為標準風冷機架的 1 / 10,相信還是有不少企業願意去採用的。