クアルコム(QCOM)がデータセンター向け人工知能(AI)コンピューティング市場で存在感を高めています。同社は新たなAIサーバー製品「AI200」と「AI250」を10月27日に発表し、これまでエヌビディア(NVDA)やアドバンスト・マイクロ・デバイセズ(AMD)が中心となっていた領域に挑む姿勢を明確にしています。発表を受けてクアルコムの株価は一時19%高となり、投資家の期待の高さが見られました。
クアルコムがAIサーバー「AI200」「AI250」を発表
クアルコムは、データセンターに導入するAI推論(Inference)向けのラックスケールサーバー「AI200」と「AI250」を発表しました。
AI200は来年、AI250は2027年に提供が開始される予定です。
これらのサーバーは同社のHexagon NPU技術を搭載し、最大768GBのメモリをサポートします。前世代と比較して、メモリ帯域幅を拡大しつつ、消費電力を抑えることができる設計となっています。AIモデルから回答を生成する推論処理において、効率的な動作が期待されています。
クアルコムの幹部であるDurga Malladi氏は「AI200とAI250によりラックスケールのAI推論性能を再定義する」と語っています。
HUMAINが200MW分のソリューションを採用へ
クアルコムは併せて、グローバルAI企業HUMAINがAI200およびAI250のラックソリューション200メガワット分をサウジアラビアなど世界各地で来年より導入する計画を明らかにしました。
これにより、事業拡大のスピードが一段と加速すると見られます。
AIサーバー市場は「フルスタック」競争へ
AIデータセンター市場は、サーバーラック一式にチップ、ネットワーク、ソフトを統合した「フルスタック」型の競争が本格化しています。
現在、この分野で存在感を示しているのはエヌビディアとAMDです。
エヌビディアはGB200 NVL72やGB300 NVL72といったラックスケールAIサーバーをすでに出荷しています。
AMDはMI400を来年出荷する計画としています。
一方、クアルコムは「AIの推論」に特化した戦略を採用し、トレーニングで優位に立つ競合と異なるポジションで市場の需要を取り込む狙いを持っています。
投資家が注目する理由
・AI需要の爆発的増加
・推論処理の省エネ化への期待
・サウジなどグローバル展開が進む見通し
・競争激化の中でも差別化要素を提示
これらが投資家の評価につながっています。
クアルコムがデータセンターAI市場に本格参入することで、勢力図が変化する可能性があります。エヌビディア、AMD中心の構図に新たな競争が生まれることで、AIインフラ市場はさらに活性化する状況が続きそうです。
*過去記事「クアルコムはAI時代の覇者となれるか?エヌビディア・インテルとの本格対決へ」
🎧この記事は音声でもお楽しみいただけます。AIホストによる会話形式で、わかりやすく、さらに深く解説しています。ぜひご活用ください👇