エヌビディア(NVDA)は、AI半導体市場において目覚ましい進歩を遂げています。その最新の例は、11月13日に行われたH200 Tensor Core GPUの発表です。この半導体は、既存のH100モデルを大きく上回る性能を持ち、AIモデルの推論において最大60%から90%の性能向上を実現します。
H200 GPU: メモリと性能の大幅アップグレード
H200には、驚異の141ギガバイトのメモリが搭載されており、これにより、AIモデルからの応答生成がさらに迅速かつ効率的になります。この半導体は2024年第2四半期に、エヌビディアのハードウェア・パートナーやアマゾンを含む主要クラウド・サービス・プロバイダーから発売される予定です。
こうしたパートナーには、アマゾン・ウェブ・サービス(AMZN)、グーグル・クラウド(GOOGL)、マイクロソフト(MSFT)のAzure、スーパーマイクロ(SMCI)などが含まれます。
エヌビディアの戦略: AIスーパーコンピューティングの強化
エヌビディアのハイパースケール・ハイパフォーマンス・コンピューティング担当バイスプレジデントであるイアン・バック氏は、「エヌビディア H200により、業界をリードするエンドツーエンドのAIスーパーコンピューティング・プラットフォームは、世界で最も重要な課題の解決に向けて、より高速になりました」と述べています。
エヌビディアのGPUは、AIモデルの訓練や顧客サービスに必要な並列計算に適しており、現在のハイエンドGPUであるH100の量産が今年初めに開始されました。その価格は約25,000ドルです。
AMDの挑戦とエヌビディアの応答
一方で、AMD(AMD)の近日発売予定のAI製品「MI300」も業界内で注目を集めています。これらのAMD製半導体がエヌビディアの改訂版H200にどう立ち向かうかは未だに不明ですが、競争は激化しています。
エヌビディアの製品サイクルの加速
先月行われた投資家向けプレゼンテーションでは、エヌビディアがAIチップの製品サイクルを2年から1年に短縮していることが示されました。さらに、2024年と2025年には追加のハイエンドAI製品のリリースが予定されています。これは、ライバルにとっては厳しいニュースであり、エヌビディアの新戦略の進行を示しています。
まとめ
エヌビディアのH200 Tensor Core GPUの登場は、AI半導体市場における同社の強固な地位をさらに固めるものです。この技術の進歩は、他のプレイヤーに対して厳しい挑戦となるでしょう。しかし、これによりAI技術の未来がより明るく、効率的になることは間違いありません。
*過去記事はこちら エヌビディアNVDA