H200 GPU発表:エヌビディア、AI技術でさらなる高みへ

エヌビディア(NVDA)は、AI半導体市場において目覚ましい進歩を遂げています。その最新の例は、11月13日に行われたH200 Tensor Core GPUの発表です。この半導体は、既存のH100モデルを大きく上回る性能を持ち、AIモデルの推論において最大60%から90%の性能向上を実現します。

H200 GPU: メモリと性能の大幅アップグレード

H200には、驚異の141ギガバイトのメモリが搭載されており、これにより、AIモデルからの応答生成がさらに迅速かつ効率的になります。この半導体は2024年第2四半期に、エヌビディアのハードウェア・パートナーアマゾンを含む主要クラウド・サービス・プロバイダーから発売される予定です。

こうしたパートナーには、アマゾン・ウェブ・サービス(AMZN)グーグル・クラウド(GOOGL)マイクロソフト(MSFT)のAzure、スーパーマイクロ(SMCI)などが含まれます。

エヌビディアの戦略: AIスーパーコンピューティングの強化

エヌビディアのハイパースケール・ハイパフォーマンス・コンピューティング担当バイスプレジデントであるイアン・バック氏は、「エヌビディア H200により、業界をリードするエンドツーエンドのAIスーパーコンピューティング・プラットフォームは、世界で最も重要な課題の解決に向けて、より高速になりました」と述べています。

エヌビディアのGPUは、AIモデルの訓練や顧客サービスに必要な並列計算に適しており、現在のハイエンドGPUであるH100の量産が今年初めに開始されました。その価格は約25,000ドルです。

AMDの挑戦とエヌビディアの応答

一方で、AMD(AMD)の近日発売予定のAI製品「MI300」も業界内で注目を集めています。これらのAMD製半導体がエヌビディアの改訂版H200にどう立ち向かうかは未だに不明ですが、競争は激化しています。

エヌビディアの製品サイクルの加速

先月行われた投資家向けプレゼンテーションでは、エヌビディアがAIチップの製品サイクルを2年から1年に短縮していることが示されました。さらに、2024年と2025年には追加のハイエンドAI製品のリリースが予定されています。これは、ライバルにとっては厳しいニュースであり、エヌビディアの新戦略の進行を示しています。

まとめ

エヌビディアのH200 Tensor Core GPUの登場は、AI半導体市場における同社の強固な地位をさらに固めるものです。この技術の進歩は、他のプレイヤーに対して厳しい挑戦となるでしょう。しかし、これによりAI技術の未来がより明るく、効率的になることは間違いありません。

*過去記事はこちら  エヌビディアNVDA

最新情報をチェックしよう!
>

幸せな生活作りのための米国株投資。
老後資産形成のための試行錯誤の日々を報告していきます。
皆様の参考になれば幸いです。

CTR IMG