エヌビディアの新GPUと液冷の未来:データセンター革命

かつては初期のメインフレームや世界で最もパワフルなスーパーコンピューターでしか使われなかった液冷技術が、人工知能(AI)時代のデータセンターにとって不可欠な技術になりつつあります。AIアプリケーション用のデータセンター・サーバーに搭載される半導体の数が増えるにつれ、各チップが消費する電力量も増加。その結果、強力な学習や推論、ChatGPTクエリーを処理する際に発生する熱量も増えるのです。

GPUの進化と液冷の必要性

今月初め、台湾で開催された大型見本市Computexで、エヌビディア(NVDA)の最高経営責任者ジェンスン・フアン氏は、1チップあたり約1,500ワットの電力を使用するグラフィック・プロセッシング・ユニット(GPU)を搭載した同社の新しいBlackwellシステムを披露しました。しかし、Blackwellシステムには少なくとも4つのGPUが必要で、構成によっては8つのGPUを搭載するものもあります。

IDCのアナリスト、ピーター・ルッテン氏によると、「Blackwellを4つ搭載すると、6,000ワット以上になり、システム内の他のコンテンツを考えると、7,000ワットのサーバーの話になります。」これにより、消費電力と放熱性が非常に高いシステムが必要とされるのです。

液冷技術の復活

多くのサーバーメーカーやデータセンターは、水やその他の冷却剤をパイプやチューブでサーバールームに送り込む液冷のコンセプトに戻っています。これらの冷却剤は、ヒートプレートやヒートシンクに包まれた半導体の上を通過し、デバイスの温度を下げます。

エクイニクス社のエグゼクティブ・バイス・プレジデント兼データセンター・サービス・ジェネラル・マネージャーであるジョン・リン氏は、「チップの温度ではなく、その周囲で実際にどれだけの熱が放出されているかが問題なのです」と述べています。

液冷技術の利点と企業の取り組み

スーパー・マイクロ・コンピュータ(SMCI)は、AI時代の液冷について語った最初のサーバーメーカーのひとつです。同社のチャールズ・リャン最高経営責任者(CEO)は、消費電力の削減を通じて顧客の運用コストを最大40%削減し、データセンターからのCO2排出量を削減できると述べました。

ヒューレット・パッカード・エンタープライズ(HPE)は、2019年にスーパーコンピューティングのパイオニアであるクレイ・リサーチ社を買収し、直接液冷に関する特許を300件以上保有しています。同社のアントニオ・ネリ最高経営責任者(CEO)は、「シリコンの加速はとどまるところを知らないが、Blackwellがオンラインになる2025年には、100%直接液冷が必要になる」と述べています。

液冷技術の市場成長と将来展望

IDCのアナリスト、ショーン・グラハム氏によると、液冷は今トレンドのトピックであり、高い成長が期待されています。スーパーマイクロは、液冷データセンターが今後2年間で1%未満から15%〜30%の設置率に成長すると予想しています。

また、デル・テクノロジーズ(DELL)などの企業も独自のオプションを提供し、Green Cooling Revolutionのような企業と連携して液浸冷却を行っています。

まとめ

AI時代の到来に伴い、液冷技術はデータセンターにとって不可欠な要素となっています。電力消費の増加とともに、効果的な冷却方法が求められる中、多くの企業が液冷技術の開発と導入に注力しています。これにより、運用コストの削減や環境への負荷軽減が期待されており、今後ますます注目される技術になりそうです。

最新情報をチェックしよう!
>

幸せな生活作りのための米国株投資。
老後資産形成のための試行錯誤の日々を報告していきます。
皆様の参考になれば幸いです。

CTR IMG