イーロン・マスクが警告:AIの成長がもたらす電力不足

テスラのCEOであるイーロン・マスク氏は最近、人工知能(AI)の需要が増加する中で、電力消費が高まり、近い将来電力不足に直面する可能性があるという大胆な予測を発表しました。このコメントは、Bosch ConnectedWorldカンファレンスでの発言であり、「来年には、すべてのチップを動かすのに十分な電力が確保できなくなるだろう」との見解を示しました。AIの急速な発展が、電力需要の増加を引き起こし、これが米国のエネルギーインフラにどのような影響を与えるかについて、深掘りしてみましょう。

AIの需要と電力消費

現在、AIはデータセンターの建設方法や設置場所に大きな変化をもたらしています。バージニア州の電力会社AESは、2030年までにデータセンターが米国の総電力消費量の最大7.5%を占める可能性があると報告しています。このことに関しては、再生可能エネルギーの供給がデータセンターの成長を支えるかどうかが、今後数年間の鍵となります。

カリフォルニア州とテキサス州で公益事業を運営するセンプラ・エナジー社は、AIを成長の大きな要因として挙げ、新たに稼働するデータセンターは数千メガワットの新規電力負荷を生み出す可能性があるとしています。

シーメンス・エナジーのクリスチャン・ブルッフ最高経営責任者(CEO)は、先ごろ開催された同社の年次総会で株主に対し、AIの利用拡大により電力需要が急増しているとし、「つまり、電力がなければAIもない。もっとはっきり言えば、電気がなければ進歩もない。」と語っています。

データセンターの成長と電力使用量の増加

ボストン・コンサルティング・グループによると、米国のデータセンターの電力消費量は、2022年の126テラワット時から2030年には390テラワット時へと3倍に増加すると予想されています。これは、AIの新しいアプリケーション、特に生成AIの利用が増えることによるものです。

エヌビディア(NVDA)は、AIサーバーはCPUサーバーに代わるものとして最も注目される商品であると述べています。同社は、世界のデータセンター・インフラに投資された1兆ドルは、いずれ中央演算処理装置(CPU)を搭載した従来のサーバーから、グラフィック・プロセッシング・ユニット(GPU)を搭載したAIサーバーに移行するだろうと予測しています。
エヌビディアによると、AIワークロードの場合、GPUサーバー2台でCPUサーバー1000台分の仕事をわずかなコストとエネルギーでこなすことができるとのことです。それでも、GPUの優れた性能は、開発者がAIを使用する革新的な新しい方法を見つけるにつれて、総電力使用量の増加につながります。

調査会社650 Groupは、AIサーバーの出荷台数が昨年の100万台から2028年には600万台に増加すると予想しています。ガートナーによると、ほとんどのAI GPUは2026年までに1000ワットの電力を消費をするようになり、現在の平均約650ワットから増加すると見込まれています。

冷却システムとAI技術による効率化

データセンターは、より効率的な冷却システムの導入や、AI技術を利用して電力需要に対処しています。AIは温度、湿度、冷却のモデル化に使用され、エネルギー効率を向上させることができます。また、液冷システムの採用により、運用コストを大幅に削減することが可能です。

送電インフラの課題

しかし、AIによるエネルギー需要の増加を完全に満たすためには、冷却技術やAIによる効率化だけでは不十分です。地域によっては、送電網の問題に直面する可能性があります。デジタルインフラに投資するアセットマネージャーのデジタルブリッジ社は、バージニア北部やシリコンバレーなど、データセンター建設で最も人気のある地域において、送電網のアップグレードに数年を要すると報告しています。

まとめ

イーロン・マスクの警告は、AIの急速な進化が電力インフラに与える影響を浮き彫りにします。エネルギー効率の向上と再生可能エネルギーの利用拡大は、この課題に対処するための鍵となります。しかし、最終的には、送電インフラの強化と効率的な配電が重要な要素になると予想されます。技術の進歩とエネルギー需給のバランスをとることは、持続可能な未来に向けた重要なステップです。

最新情報をチェックしよう!
>

幸せな生活作りのための米国株投資。
老後資産形成のための試行錯誤の日々を報告していきます。
皆様の参考になれば幸いです。

CTR IMG